自動運転が現実性を帯びてきたせいもあり、AIやロボットの利用に関する法整備の議論が活発におこなわれています。従来の技術と違い、人間が直接監督しない状況で起きた事故の責任なども考えないといけないので、そもそも「責任」とは何かというところから考え直さないといけない部分もあるように思われます。
書店で関連した本を立ち読みしてみると、法律側からの議論が多く、技術側の問題を検討しているものは見当たりませんでした。実際、そういった本は法律関連の書棚に主に置いてあり、技術書の周辺ではあまり見かけません。それ以上の調査をしたわけではないので最先端の状況はわかりませんが、コトの重要性を考えると、もっと技術面での検討があってよいように思います。
「技術面での検討」と言ってもいろいろな方向性が考えられます。
一つは「その法律が現実的に実行できるかどうか」という技術的妥当性の問題。急激に発展する技術分野に関する法制はどうしても現実から遅れがちで、下手に法律を作ってしまうと技術の発展を著しく阻害してしまったり、現実的に実行不可能なものになってしまう可能性があります。このようなことが起きないように技術側からしっかりフィードバックをおこなうことは重要です。ただ、こうした問題については既に学会等でも十分意識されて議論がおこなわれている印象があります。また実際にロボットやAIを事業で使おうとする企業にとっては死活問題になりかねないので、ヘンな言い方になりますが、放っておいても検討が進む気がします。
もう一つの方向性は「法律が作られたあるいは改定されたときに、ロボットやAIが自主的に遵守する、さらに、遵守されているかをテストするにはどのような技術が必要か」という問題です。時代の状況に応じて、高速道路の最高速度が変わったり、Uターンのルールが変わったりすることは、自動運転が世間を騒がせる以前から起きていることで、これからも起こり続けます。一つの考え方は、ロボットやAIの製造者が責任を持って製造したロボットやAIをアップデートする、というものです。これはこれで検討するべきアプローチだと思いますが、個人的にはこれだけではちょっと足りないのではないか、という気がしています。
製造者が責任を取るアプローチというのは法律が変わるたびにリコールをかけて整備をおこなう、というようなものです。もちろん、ソフトウェアのアップデートで済む場合は、わざわざ整備場まで運び込まなくてもネット経由でアップデートできるかもしれないので、リコールほどのコストはかからないと思いますが、それでも全ての車にアップデートを徹底させるのは至難の業です。(2017年4月の段階で世界の企業の全PCの14%でWindows XPが稼働しているという調査結果もあったようです。)もし仮にできたとしても製造者が車体寿命の前に倒産してしまうことも十分ありえます。そんなとき未アップデートの「ノラ自動運転車」が全て違法車両になってしまったら大問題です。
それにひきかえ、もし、車自身が法律を「理解」して遵守できるようになったならば、話は随分変わります。自動運転車も普通の非自動運転の車両と同様、定期的に車検は受けなければならないだろうと思います。その車検時に最新の法律をインストールすることを検査業者に義務づければ、どの車両も定期的に最新の法律情報を受け取ることになります。(おそらくインストールのためのプロトコルは標準規格を作らないといけないでしょう。)あとは車検のサイクルと法律の施行前期間を調整すれば、法律施行日には全車両がその法律に従っていることになります。
とはいえ、機械に法律を「理解」させるのは難しい問題です。
そもそも、法律というのはありうる全ての場合を網羅的にカバーした絶対的なルールというよりは、社会的な営みを円滑に進めるための調停ガイドラインのようなものです。機械はガイドラインのような「細かいところは適当によろしく」的な指示は基本的には理解できません。理解できないので、最近の機械学習ベースのAIでは、そのガイドラインにしたがっている例から学習することで、何とか理解しているのと同じように行動させようとします。新しい法律ができるたびにそのための学習データを作成するというのはコストもかかりますし、法律を作る側としてはデータを作ることで法律の解釈を限定されたくないという事情もあります。それにひきかえ、AIが法律を直接読んで理解してくれるといろいろ助かると思うのですが、こういう方向の研究を聞いたことがありません。(興味があるので、もし参照すべき文献などあったら是非教えてください。)
もし仮に法律を理解する(と主張する)AIができたとしたら、次はそれが行動に反映できているか確認する必要があります。
人間の場合なら「理解した」と答えたら、よほどの理由がない限りはそれを信じて終わりになりますが、機械の場合は「理解した」と答えたからと言ってただ信じるわけにはいきません。これは機械が嘘をつくとかいう話ではなく、我々と異なる認知機構を持つ存在が我々と同じように理解しているか知るには、実際に行動を観察してみるほか今のところ手段がないからです。たとえば犬に何か命令をするときに、「わかったかい?」と聞いて「ワン!」と答えたことだけをもってして、その犬がちゃんと理解していると考えることはできません。その犬がちゃんと命令どおりに行動するか様々な状況で確認したあとではじめて、その犬は命令を理解している、と言うことができます。
話をAIに戻すと、法律が変わるたびに影響を受けるAIをすべてテストするのは大変な話です。一つの手としては日頃からAIの行動を観察して違反を犯しているものがないか監視する方法があります。これは今でも警察がやっている取り締まりと本質的に変わりませんが、AI導入の初期は人間にたいするよりもより厳重に監視することが必要と考えられるかもしれません。しかし、そうなるとプライバシーの問題もでてきますし、そもそも監視すること自体のコストも馬鹿になりません。ここにもAIシステムの理解性とかテストが容易なAIなど研究の種が転がっている気がしています。