2020年には言語理解、30年には執事ロボ…AIの社会経済影響評価まとまる

国際的議論に向け国内に議論の場を形成へ


答えのない尊厳


 特にAIの知性が認められ、人間のような尊厳を獲得するかどうかは、意見が対立し、幅広い影響のあるテーマだ。AIの工学系研究者は「AIはどこまで進化しても道具」とし、AIの理学系研究者は「AIが人間を超えれば〝神〟と同じような存在になるはずだ」という。哲学研究者は「人格や尊厳の概念を広げる可能性がある」、弁護士は「人間と人間の集まりである法人以外に権利や責任を認めると、根底から法制度を作り直さなければいけない。いくら賢くても動物は責任主体にならない」など、収拾がつかなくなる。

AI失業対策は


 またAI化やロボット化による技術革新失業と就労支援策、教育施策も精緻な検証はできていない。そもそも雇用状況の変化を技術革新失業とグローバル化のどちらの影響が大きく、また両方が重なることでどの程度影響が拡大するのか踏まえずに問題が提起された。AIに仕事を奪われるのか、AIを使う人間に仕事を奪われるのか、研究者によって思い描く危機像が違う。

 AI失業の対策として国民に生活費を給付する「ベーシックインカム」を主張する経済学者が、その財源や税制として成立するか検証しないまま必要性だけ提起するなど、社会的なリスクについて対策を練るところまで至らないテーマも少なくない。本来は教育や職業訓練にかかる期間やコストと、再就職までの経済逼迫度などを精査して、耐久限界を検証する必要がある。だが異分野からの提案を異分野の専門家が精査するのは難しい。

当面の課題選定


 そこで5-10年で取り組む当面の課題と、議論の動向を見守るテーマに分けた。当面の課題は14件。研究開発の原則や市民のAIリテラシーの育成など、論点と方向性をまとめた。

 AIの開発原則はOECDのプライバシー8原則をベースに作成した。その第一原則に「透明性の確保」を据えた。AIが事故を起こしたときの原因究明や、診断AIのインフォームドコンセントには透明性は欠かせない。ただ現在のAIブームを起こしたディープラーニング(深層学習)はなぜ、そう判定したのか理由や中身がわからない。深層学習の透明化の研究は始まったばかりだ。ブレークスルーとなったAI技術を原則違反で使えないとなると産業界の反発は大きくなるだろう。リスクを計れれば理想だが、リスクの連鎖を含めると、すべてのリスクを洗い出し対策することは不可能だ。AIもリスクも不透明さは残る。どう選んで、どうマネジメントするか、技術開発と運用ルールのどちらもホットな研究テーマになるだろう。

 まとめた14課題は、今後AIの開発や運用について国際的な議論に発展させる。情報通信政策研究所の吉田智彦主任研究官は「議論のたたき台はできたが、一つの国で対策を練っても実行性がない。G7やOECDでの議論につなげたい」という。
 そのために国内で議論や研究の場を整える。成原慧主任研究官は「文理融合のために幅広いステークホルダーを集めると専門家の議論でも収拾がつかなくなる。国内の議論は一般市民の参加を実現したい。そのためには議論のプロセスをうまく整える必要がある」という。AIリテラシーを育成しながら、国内をワンボイスにまとめる挑戦だ。現状、文系と理系に限らず、専門家の間には壁がある。国際的な議論を主導するためにも、日本は一つにまとまれるのか動向が注目される。
(文=小寺 貴之)

ニュースイッチオリジナル

COMMENT

AIの恩恵を万人が受け、人間の尊厳と個人の自律が保障され、AIの制御可能性と透明性が確保され、AIが安全安心に使われる社会を実現する-。こんな感じの考え方が開発原則の前提として提案されました。「AIに支配されるかも」といった不安や嫌悪感を打ち消すための大原則なのですが、このAIを人間に置き換えたときに、どのくらい実現しているのかと思ってしまいます。取締役会や独裁制、代議員制など人間の組織統治の手法はいろいろあります。国や企業、チームなどによって一長一短がありますが、もしそれぞれの実現度を計れれば、AIによる統治システムに超えられた手法はAIに置き換わるべきとなるのかなと思いました。 (日刊工業新聞社編集局科学技術部・小寺貴之)

関連する記事はこちら

特集