自動運転事故で自動車メーカーはどこまで責任を問われるのか
まず裁判の争点は設計欠陥の有無。わき見運転しているCMは格好の的に
陪審員はメーカーをどこまで尊重してくれるのか
今回メーカーがレベル2(ドライバーが運転主体で責任を負う)のシステムとして販売しても、実際にはレベル3(システムが運転主体で責任を負う)のように利用された。
政府やメーカーがレベルや責任を決めても、必ずしも利用実態がそれに則したものにならないかもしれない。訴訟が起きた場合、陪審員がメーカーらが決めた定義をどこまでどこまで尊重してくれるのか。調査で運転交代の実現性を担保する対策が不十分とされれば、ドライバー計測技術などを拡充する必要が出てくる。
ただ、これは速度違反を許す車をなぜ販売するのかという問いに近い。200km/hで走れる車つくることが交通違反の原因なのか、ドライバーの運転が原因なのか。自動運転車がより硬度になれば、地図情報や自己位置から制限速度や交通ルールはわかる。
そのとき、ドライバーにルールを守らせないのはメーカーにも責任があるという主張が陪審員の腑に落ちるかどうか。合理的な代替設計案として交通ルールを遵守するAIが提案されれば、メーカーはルール遵守AIをなぜ採用しなかったのか説明する必要に迫られる。
そもそも、自動運転に運転を任せても、運転状況の監視が必要なら、それは運転よりも面白くない作業になる。これは商品として成立するのか。走行中にリラックスして、いざというときに運転を交代できなくなるのであれば、自動運転の利便性と安全性が矛盾する。
ユーザーコミュニティの過信
テスラは創業者イーロン・マスクのファンがコアユーザーになり、業績や自動運転技術の試験的な実車適応を支えてきた。本来、ユーザーを使って技術をテストするやり方は、人命を預かる車業界では受け入れられないものだった。テスラのユーザーコミュニティは一般市民よりも技術リテラシーが高く、運転中の動画をSNSに投稿するなど、技術革新を広める立場にある。
ただ投稿の中には危険な運転動画もあり、ユーザーコミュニティが過信を助長している側面がある。コミュニティから恩恵を受けてきたものの、メーカーはどのくらいの規模までユーザーコミュニティに付き合えるのか。第三者を事故に巻き込んでしまったときに、メーカーとユーザーの責任を切り離した議論が受け入れられるのか。
米国では死亡事故は9400万マイルに一件。自動運転では1億3000万マイルに一件だとしても、それは十分な事故低減効果と言えるのか。保険業界の評価が注目される。
(文=小寺貴之)
<次のページ、日産「機能の限界が運転者にわかりやすく伝わるようにした」>
ニュースイッチオリジナル