説明するAI、説得される人間【上】 どうする判断の根拠

わかりやすく示す研究進む

  • 2
  • 16
 説明する人工知能(AI)―。AI技術は画像認識などの精度を飛躍的に向上させたが、人間はその判断の過程を解釈できなかった。医療などの重大な意思決定において、AIの判断の根拠がわからず、提案をうのみにすることはできない。そこでAIの判断の根拠をわかりやすく示す研究が進んでいる。

深層学習を透明に、ミス撲滅に必要


 「ディープラーニング(深層学習)を透明に」は、AI研究のホットな話題だ。深層学習は中身の見えないブラックボックスに例えられる。大量のデータを学習させることで識別性能は飛躍したが、なぜ精度が上がるのかを説明する理論体系はまだ確立していない。

 深層学習の研究は、まだ実験段階で、研究者がそれぞれ試行錯誤している。そのため小さな改良を含めて大量の論文が発表され、研究者もすべての論文を読めなくなった。理論的な限界も学習の中身も不透明なまま性能だけは更新されていく状態が続いている。

 AI研究者にとって学習の中身の解釈は長く取り組んできたテーマだ。産業技術総合研究所人工知能研究センターの麻生英樹副センター長は「技術の誕生と同時に研究が始まった」と振り返る。

 AIの精度を上げるには、どの因子が重要だったのか特定しないと改良できないためだ。重要因子がわかれば精度が上がり、判断の根拠が分かる。反対にAIのミス撲滅のためにも重要因子の特定が必要だった。

 理化学研究所革新知能統合研究センターの鈴木大慈チームリーダー(東京大学准教授)は、深層学習の階層ごとに学習結果や重視した因子を推定する技術を開発した。

 深層学習では脳の神経細胞ネットワークを模して、十数から数百層の計算ユニットを層状に重ねて、巨大なネットワーク状の学習モデルを利用する。

 この層ごとにカーネル法という数学手法で関数に変換。得られた固有ベクトルからどの情報を重視したかを、固有値から重要度を推定する。固有ベクトルと固有値から深層学習の第何層までに学習が完了しているかわかる。

階層ごとに因子推定「5年で解明」


 例えば20層の学習モデルの1―16層で学習がほぼ終わっているとわかれば、残りの4層はエラー訂正に特化した学習に注力させることも可能だ。

 用途に応じて層を入れ替える「転移学習」では、入れ替え層の相性を判断できるようになる。鈴木チームリーダーは「理論研究はいま急速に進んでいる。5年後には深層学習を解明できるだろう」と期待する。

 ただ、この研究はAI技術者でなければ理解できない。医師や人事担当者などの各分野の専門家が使うには、それぞれの専門家が理解できる言葉・用語で学習内容を表現する必要がある。これはAI技術のビジネス導入の大きな壁になってきたため、電機各社が力を入れている。

医療・金融で応用、提案の信頼性高まる


 日立製作所は深層学習の巨大ネットワークの中から、特定の説明因子を抽出する技術を開発した。例えば患者の病状推移や体重、年齢、血糖値、遺伝子変異などのビッグデータを学習させ、その中から診療ガイドラインの判断基準に使う因子を抽出する。ビッグデータで深層学習の精度を確保。学習の中身は診療ガイドラインに従って説明できる。

 柴原琢磨研究員は「医師からはビッグデータの断片的な説明では、意思決定には使えないとクギを刺されてきた。ガイドラインに従って説明できれば患者さんにも説明できる」という。

 同社は30万因子を学習できることを確認した。主要遺伝子変異をすべて学習させ、疾患を説明させることも可能になる。

 富士通研究所は専門家が説明に使う知識体系と深層学習を融合させた。各専門分野には診療ガイドラインや業務マニュアルのような知識体系が存在し、知識体系もネットワーク状の構造をもつ。そこで深層学習でネットワーク状のデータを学習する手法を開発した。

 一度、「テンソル」という数学表現にデータを直して深層学習にかける。深層学習で重視された因子が、知識体系のどの知識に当たるか照合する。すると重視因子を「風が吹いて」から「おけ屋がもうかる」までの途中経過のように表現できる。

 深層学習と知識体系を対応させて専門家の解釈を促す仕組みだ。井形伸之人工知能研究所プロジェクトディレクタは「医療や金融など、信頼性が求められる分野ほど、AIの説明可能性が重視される」という。

自動運転実況 車の“心”を作る


 利用者の命を預かる自動運転も同様だ。トヨタ自動車の米研究子会社トヨタ・リサーチ・インスティテュート(TRI)は米マサチューセッツ工科大学(MIT)と、自動運転AIが自車の状態を説明する技術を開発している。

 説明の対象が一般生活者であるため、専門用語や数値で表現できないことが難しい点だ。センサーなどの計測状況を表示しても、モニターを注視しないといけない。そこで注意喚起の段階からやさしい言葉で説明する必要があった。

 研究チームは車両の部品モデルと車体運動モデルを作成し、車両からアクセルやタイヤなどのデータを集めた。データをモデルと照合して、部品の連動や車体の加速度、路面摩擦などを推定して状況を把握する。

 まだ基礎研究ながら「右前輪力増加・左前輪力減少。理由・右輪推進力が増加もけん引閾値内、ステアリング・加速度センサーと一致。安全に左折と確認」などと、運転を実況中継できている。

 ただ、このまま逐一報告されると、うるさく感じてしまうかもしれない。実装時には形が変わるだろう。研究チームの目標は物語を共有できる車の“心”を作ることだ。

 AIのユーザーのレベルに応じた説明技術が開発されている。課題はAIの説明が適切でもユーザーが納得するかどうかだ。説得する技術との融合が求められる。
(文=小寺貴之)

日刊工業新聞2018年3月20日

COMMENT

小寺貴之
編集局中小企業部
記者

 AI研究者の中で説明責任について否定的な意見は多いです。例えば人間の10日分の仕事を1時間でするAIがミスをしたとします。人間がAIから説明を聞いてミスを直すのに10日かかると、その間に2400日分の仕事が終わっていることになります。もうAIのミスなんて探せません。  果たして人間はAIの説明なんて聞きたいのでしょうか。自動化のパラドックスと、信頼vs過信の複合問題です。身近なものでは、電卓の計算メカニズムなど知らなくても性能を信じていて、説明を求めないものは多いです。計算機が間違えて帳簿が合わないということは、ないことになっています。自身でコントロールできていると感じる限り、ほとんどの技術に市民は説明を求めません。では自身でコントロールできている感覚は納得感を引き出すのでしょうか。自分で選んだ選択肢には正常化バイアスのような肯定感が働くと思います。

関連する記事はこちら

特集