政府が掲げるAI利活用の基本原則、軍事利用禁止はどうなる?

年内に案を取りまとめ

 人工知能(AI)をより良い形で社会に生かすには―。AIの研究開発や利活用の基本原則を確立しようとする議論が大詰めを迎えている。内閣府の「人間中心のAI社会原則検討会議」で試案が示された。年内に原則案をまとめ、2019年1月には欧州とのすり合わせを始める。経済協力開発機構(OECD)や主要20カ国・地域首脳会議(G20サミット)などの国際会合で国際協調の枠組み作りを目指す。倫理や公正が重要テーマになる。日本の政府が原則を掲げる以上、AIを使う公的機関は公正さをどう担保するのか準備を始める必要がある。

 日本でAI原則の議論が本格化したのは約3年前。AIは社会に広く影響する技術として、社会的なリスクとメリットを整理する検討会が総務省や内閣府などで立ち上がった。当初は公平性や説明可能性は技術的には難しく、技術開発の阻害要因として冷たくあしらわれた。

 現在は企業の昇進や採用、海外では警察官のパトロール、画像診断などにAI活用が広がった。人の人生を左右しかねない技術にもかかわらずAIの判断の過程がわからないと問題になった。

 AIを用いた個人のプロファイリングや広告配信技術が選挙結果を左右するなど、民主主義や国家の形に直接影響する技術として認められた。

 内閣府の検討会でも「公正」や「説明可能性」などが重要課題になる。「誰もAIの恩恵から取り残されない社会」「公正な競争」「人間の創造性に供されるAI」といったメッセージが込められる予定だ。一方で軍事利用禁止は原則論に含めないことになりそうだ。AIで誤爆を減らすなど、被害を抑える方向にも機能する。

 議長を務める須藤修東京大学教授は「このままではAIやデータで途上国などの弱者を食いものにする国や企業が力を持つ。国際協調の枠組みとして世界に提案していく。(軍事利用禁止など)合意形成できない項目を含めるのはリスクになる」とすり合わせを急ぐ。中央大学の平野晋教授は「グーグルなど影響力の大きな企業に対応を促す力になる」と期待する。

 一方で日本の公的機関のAI活用は道半ばだ。警察パトロールではAIの予測が摘発効率を上げる例はある。だがデータの偏りによって特定の地域や人種が過度に警戒され、巡回ルートと摘発データの偏りが助長されるリスクが指摘される。

 司法や警察、医療など公的機関には社会が敏感な業務が少なくない。何をもって公正と社会に説明するのか、AIが学習するデータを公平性が増すように整備し続ける努力を誰が担うのか、実務を踏まえた議論は始まっていない。

 須藤議長は政府のデジタルガバメント計画との連携を模索するが、「まだ行政手続き電子化を進めている段階。その先の先にAIの公正などがある」と説明する。

 民間企業にとっては公的な資金とデータで、難しい技術を開発するチャンスではある。AIの判断を説明する可視化研究が進み、基礎技術はできつつある。公的機関を矢面に立てて試せる。基本原則が国際的に認められ、運用を議論する段階で、日本から好事例を提案できれば実務のルール作りも主導できる可能性はある。

 日本は有言実行の姿を示せるのか岐路にある。

 

(文=小寺貴之)

日刊工業新聞2018年11月19日

小寺 貴之

小寺 貴之
11月24日
この記事のファシリテーター

この検討会は初回にちゃぶ台返しがあり、産業競争力に資する原則論をまとめようと言うことになりました。倫理や公正は、技術で実現することも、社会に納得された形で運用していくことも難しく、原則論に記載はされても実行性が伴うものにはならないだろうと考えていました。ですが、メインメッセージの中に収まることになりそうです。日本政府として原則論を掲げても、産業界や世界がいうことを聞くのかは疑問ですが、公的機関は体現して見せなければなりません。そこには大きな技術開発ニーズがあります。こんな新技術振興策があってもいいのかもしれません。社会の要請には合致しているので、技術と社会のあるべき姿の一つなのだと思います。

この記事にコメントする

  

ファシリテーター紹介

記者・ファシリテーターへのメッセージ

この記事に関するご意見、ご感想
情報などをお寄せください。