ニュースイッチ

AI時代の陰、想定外のリスクにどう対応していくべき?

AI時代の陰、想定外のリスクにどう対応していくべき?

AI搭載機器で事故が起きても、対立構図ではなく、あらゆる関係者を集めて解決策を考えることが求められる(イメージ)

人工知能(AI)技術などの先進技術がさまざまな副作用を社会にもたらすようになった。情報配信の順位付けアルゴリズムによる社会の分断のように、従来の〝技術は道具〟という位置付けに留まらず、事前に設計しきれない影響力を持つ場面もある。京都大学の稲谷龍彦教授はリスクを回避し、イノベーションの対価を得るため、短いサイクルで試行錯誤を繰り返す「アジャイル」なガバナンスの重要性を提唱する。

現在は判断の根拠となるデータや情報のふるい分けを情報技術が担うものの「商品を買う」などの最終判断は人間が行っている。だが将来は購入などの判断もAIなどの自動化システムに委ねる場面がより増えると見込まれる。「AIとの協調で人間の主体性そのものが変わる可能性がある。(AIによる)影響の受け方は人それぞれ。もはや同じ人間でも違う『種』と言えるのではないか」と稲谷教授は指摘する。価値観や意思決定の過程はさまざま。そんな「マルチ・スピーシーズ社会」での法のあり方を稲谷教授は研究する。

具体例としてAI搭載機器で事故が起きた場面での法的責任を扱う。現在は製造物責任法でメーカーに責任を持たせ、事故が起きないよう製品を開発させる推進力とする。ただ、会員制交流サイト(SNS)による社会の分断のように事前にリスクを設計しきれないこともある。予期しきれないリスクを恐れて社会実装が進まないとイノベーションの対価は得られない。そこで実際に導入しつつ、リスク分析や制度の見直し、運用をその都度、試行錯誤しながら進めることを提唱する。

事故が起きた際、従来の加害者と被害者の対立構図でなく、メーカーやユーザー、被害者らを集めて解決策を考え、ルールやゴールを見直していく仕組みだ。ルール形成と運用を逐次更新していく参加型のガバナンスモデルになる。

別のアプローチとしてはAIなどの技術を法人格のような権利主体として扱い、財産を蓄えさせて事故時の補償に使うモデルが提案されている。ただ「法人をいくつも経由して責任を開発企業から切り離す、トカゲのしっぽ切りの仕組みとして機能してしまうリスクがある」(稲谷教授)。事前に設計しきれないからこそ、その都度、責任分配やルールを改良する速度を担保することに力点を置く。

一方で大きな問題を扱うには、多様なステークホルダーに協力してもらう必要がある。関係者が増えるほど改良速度は落ちるのではないか。稲谷教授は「まずは局地戦から。特区などの小さなサイズで、いくつもガバナンスモデルを試していくべきだ」と提案する。(小寺貴之)

日刊工業新聞 2021年1月28日

編集部のおすすめ