先端軍事技術の米DARPAと共同研究、「説明できるAI」の今を語る

米ゼロックス・パロアルト研究所バイスプレジデント ラージ・ミンハス氏インタビュー

 人工知能(AI)研究の中で、説明可能なAI「XAI」は今最も注目のテーマだ。現在のAIは判断根拠を明示できないものが主流のため、社会や経済に大きな影響を与える用途に使いにくい。これを解決するため、国や民間でXAI研究が進む。米国防高等研究計画局(DARPA)との研究に取り組む米ゼロックス・パロアルト研究所バイスプレジデントのラージ・ミンハス氏に進捗を聞いた。

 ―どのようなアプローチでXAIに取り組んでいますか。
 「DARPAから、自律飛行ロボット(ドローン)による捜索や救難の任務について二つの課題を出された。一つは『ドローンがなぜこのアクションを起こしたか』の説明、もう一つは任務に成功するかどうかの予測。AIの判断がもたらした結果から、モデルの中で何が起こったのかを、開発中の『XAIシステム』で説明する。現在、捜索・救難の任務についてシンプルな説明ができるところまで研究が進んだ」

 ―XAIシステムはどのようなものですか。
 「AIの判断に影響する多くのパラメーター(変数)と人が理解できる概念との間をマッピングし、つなぐことがアイデアの基本だ。コンピューターが理解できるように概念を記述する仕様『オントロジー』に基づき、ドローンや医療などの分野で使う用語を『共通領域』として定義した。XAIシステムは、この共通領域を使うことで、機械学習モデルの中で起きたことを人の言葉で説明する」

 ―具体的に、ドローンの任務などはどう説明できますか。
 「例えば『離陸』には、滑走路を走行し、飛行高度が上がるというステップがある。XAIシステムは、多くのパラメーターから自動的に離陸のステップだと理解する。同様に『飛行中』『捜索パターンの飛行』『墜落』もわかる。ドローンが墜落した場合、天候やセンサー精度なども踏まえ、『悪天候でセンサーを活用できず、山を見つけられなくて墜落した』といった説明ができる。AIの専門家以外も理解できることがポイントだ」

 ―今後、研究をどう進めますか。
 「DARPAとは、より多くの原因が考えられる複雑な場合も説明できるように研究を進める。将来は総合的なドローンの任務に対応したい。また、XAIによってユーザーがAIに抱く信頼性が高まるか効果を測定している。当社としては民生向けのXAIの研究に取り組む。例えば、X線画像から、がんを発症する可能性だけではなく、『画像のこの部分ががんになりそうな可能性を示している』といった説明を提供できるものを作りたい」

ラージ・ミンハス氏

日刊工業新聞2019年3月6日掲載

梶原 洵子

梶原 洵子
03月13日
この記事のファシリテーター

AIと人の共存に向けて、AIの判断を説明できるのは第1ステップだ。次の段階として、ミンハス氏は「人間がAIに説明することも大事になる」と指摘していました。例えば、テニスのコーチが【この練習はここを鍛えるためにやっている】と説明して教えたほうが効果的に訓練できるように、AIに学習用データを与えるだけでなく、有効な学習方法を教えるといった高度なコミュニケーションも考えられる。XAIによって、AIの更なる進化も期待できかもしれない。

この記事にコメントする

  

ファシリテーター紹介

記者・ファシリテーターへのメッセージ

この記事に関するご意見、ご感想
情報などをお寄せください。