AI開発者が心に留める9原則

シンギラリティーへ慎重になる理由は?

 人工知能(AI)ブームは技術系研究者が社会系研究者を巻き込み広がった。ブームの初期に一部の技術系研究者が、AIが人類を超越するシンギラリティー(技術的特異点)への期待を広め、社会系の研究者も追随した。現在は技術系の研究者の中ではシンギラリティーに慎重な立場が大勢を占める。「AIはあくまでも道具であり、人間に取って代わるものではない」と慎重派が現実路線に戻そうとしている。

 このひずみが色濃く残るのが文理融合で進めるAIの社会的影響評価だ。社会系研究者にとっては、AIを道具として扱えば自分たちが議論する社会的影響は小さくなり、これまでの議論で論点はほぼ出尽くしている。一方、AIを人間のような知能として扱えば、夢物語だと技術系から反発を受ける。識者の認識はバラバラで議論は発散しがちだ。

 政府は主に三つの組織で社会的影響を検討してきた。内閣府の大臣懇談会と総務省情報通信政策研究所(IICP)のAIネットワーク社会推進会議、経済産業省と文部科学省、総務省の3省が連携する人工知能技術戦略会議の3組織だ。

 IICPは3組織の中で最も検討の着手が早く、技術系と社会系から多彩な専門家が集まる。AIの開発原則や利活用原則を国際的に議論するための「案」を作成している。

 今夏に「案」をまとめてOECDやG7などの国際会合に提案する方針だ。議論を進める上で当然、文理間の齟齬(そご)があった。社会系は技術に明るくなく、技術系は法解釈などへの誤解が少なくない。

 齟齬が端的に表れたのがAIの定義と開発9原則だ。素案段階ではAIについて定義はできないとしていたが、あえてAIを定義することになった。

 道具としてのAIはすぐにでも実現し、言語の壁は低くなるかもしれない。一方、人間の知能のようなAIはまだ遠く、AIに倫理観を教えるのはかなり先になる。社会課題として混同しないよう配慮が必要だった。

 また開発9原則も技術系の反発を招いた。原則ではAIの挙動について透明性や説明責任を求めた。例えばAIが操縦する車が人をはねたら、なぜ事故を防げなかったのか検証される。検証にはAIがどう判断したのか説明できなければならない。

 ただ設計思想やプログラム、挙動特性など、どの技術レベルまで開示すれば説明したことになるのか答えがない。事故前と事故後でも求められる説明が変わる。

 最終的に、裁判で陪審員が理解できるようかみ砕いた説明でなければ意味がなく、原則として説明を求められては開発の足かせになりかねないと技術系から不満が出た。

 そこで最新案では原則の説明文に「配慮」や「留意」という単語がちりばめられた。IICPの福田雅樹調査研究部長は「非拘束・非規制で機能する仕組みを検討する」と説明する。AI開発者に守らせる原則を決めるのではなく、AI開発者が原則を満たそうとインセンティブが働くように社会を変えるすべを模索する。

 福田部長は「原則で求めた項目は社会が求める価値でもある。プライバシーを守り安心できるAIなど、原則に応えれば市場競争力も増す」と説明する。原則は足かせにもなるが、製品価値にもなる。原則順守と技術開発の両立を目指す必要がある。
                

日刊工業新聞2017年5月12日

小寺 貴之

小寺 貴之
06月19日
この記事のファシリテーター

AIに限らず科学技術系の倫理指針は実践が難しく、何を持って指針から外れたか、守ったといえるのか問題になります。指針を掲げるまでは良いのですが、指針の実行性について議論し出すと答えがまとまらず、次第に技術系が議論から距離を置くようになってしまいます。技術系は社会、社会系は文系について明るくないと議論が机上の空論になるので、IICPの福田部長は「議論を続けることが重要」と強調します。専門家同士でも苦労するので、社会一般に議論を広げるにはどうしたものかと思ってしまいます。ただプライバシーや説明可能性などの指針で求められる項目は社会が求める価値でもあるので、研究や開発がなされないわけではありません。

この記事にコメントする

  

ファシリテーター紹介

記者・ファシリテーターへのメッセージ

この記事に関するご意見、ご感想
情報などをお寄せください。