ニュースイッチ

ロボットが事故を起こしたら…?「法学会」設立難航

「社会進出」への課題多く、業界関係者から異論
 ロボット法学会の設立が難航している。現行法では対処できない法的課題を議論する場として、法学者らが設立を呼びかけた。しかし、ロボット業界関係者の強い反発を招いた。ロボット以外にも、すでに高度で複雑な機械・装置があり、運用ルールが確立しているためだ。そこに法律では解けない倫理問題が持ち込まれ食い違いが広がった。ロボット普及に向けたルール作りには多面的な議論が必要だ。あらためて論点を整理し、議論を深める必要がある。

 ロボットが普及した社会では家庭や公道など身近な場所でロボットが稼働する。人と接する機会が増えれば、トラブルも必然的に増える。そこで慶応義塾大学総合政策学部の新保史生教授らはロボット法学会の設立を呼びかけた。2016年内の学会設立を目指している。

人間第一、秘密保持


 ただ、ドローン(飛行ロボット)に関する法律改正や産業用ロボットの安全規制緩和など、個別の法規制見直しは進んでいる。問題は「心」を持ち「人格」を備えているかのようなロボットが台頭してきたことだ。ロボットへの期待が膨らむ一方で過信を招き、どんなトラブルが起こるか分からない。そこで新保教授はロボット法8原則を提案した。「人間第一」「秘密保持」「安全保護」などロボット法の議論の基礎となる概念だ。各論の対処を重ねるよりも本質的な解決を狙った。

 しかし弁護士など実務家にとっては具体的な事例がなければ議論ができない。そこで例題に挙げられたのが自動運転車の「トロッコ問題」と、自律型ロボによる事故の責任問題だった。これらがロボット関係者の反発を招いた。新保教授は「『首を突っ込むな』と敵意をもって研究会に来た方もいた」とし、「現状では組織や人など体制整備の見込みがない」という。金融業界からはラブコールを受けるものの、「当面は設立準備研究会として活動することになりそうだ」という。

 トロッコ問題は、車両がそのまま進めば老人を轢き、避ければ別の子どもを轢くというジレンマを題材にする。運転する人工知能(AI)がどちらかを選択できるよう法的根拠が必要とされた。だがトロッコ問題は倫理の議論になり、人間の運転手にも答えを出せない。自動運転の技術者は「問題設定が間違っている」と批判した。多くの自動車メーカーは、緊急時には人間が判断する自動運転車の開発を目指している。自動運転の課題は、人と比べてAIの判断の信頼性や安全性が向上すると証明できないことだ。

リスクの洗い出し


 さらに自律型ロボが起こした事故の責任問題では“自ら判断するロボット”に責任を問えるかどうかが取りあげられた。現実には、ロボットが人間の道具である限り、製造者や使用者が責任を負うことが原則だ。機械が人間を超えるというシンギュラリティー(技術特異点)への期待が誤解を招いた。

 ロボットの“判断能力”について、国立情報学研究所の喜連川優所長は「プログラムの自動生成すらできていない。AIがAIだけで進化するのはまだ夢の話」と一蹴する。ロボット法学会発起人の赤坂亮太慶大SFC研究所上席所員も「ロボットが人格を備えるのは遠い未来」という。現在はロボットを人と同じ責任主体に据える合理性はない。

 福田・近藤法律事務所(東京都中央区)の近藤惠嗣弁護士は「事故責任の本質は設計時のリスクアセスメントと、使用時のリスクコミュニケーションにある」と指摘する。ロボットは開発時にリスクを洗い出してつぶす。それでも残るリスクはユーザーに伝えて対策しながら使ってもらう。それでも起きた事故は、リスクの洗い出しが不十分だったのか、運用に不備があったのかで責任が問われる。
日刊工業新聞2016年1月18日 深層断面
日刊工業新聞記者
日刊工業新聞記者
「法学会立ち上げで起きた食い違いが、他の分野でも起こることが予想されます。異分野の専門家の間でも齟齬が起こるので、市民が混ざるとどんな齟齬がおこるのか予想が難しいです。一方、消費者期待基準がそのまま適用されてしまうとロボット実用化の壁は高くなるので、極端な落としどころに収まらないように、社会のリテラシーを上げていく必要があります。  今回の記事では、俳句のすべての組み合わせは106文字の17乗なのでだいたい10の34乗で100溝(10京の10京倍)なのですが、世界のストレージ容量よりも遙かに大きいと指摘されています。こういう、ありがちな落とし穴に異分野の人間は簡単に引っかかります。リテラシーが足りていないのは記者でした。反省します。 (日刊工業新聞社編集局科学技術部・小寺貴之)

編集部のおすすめ