説明するAI、説得される人間【下】「人の納得」どう引き出す?
データ増えても…判断がブラックボックス
説明する人工知能(AI)、説得される人間―。医療や人事など難しい判断が必要な場でAIを活用するため、AIの判断を説明する技術開発が進んでいる。だが、こうした技術を実際に役立てるには、人間を説得する技術との融合が必要だ。これまでは選択肢を三択にして真ん中を選ばせるなど、人間の性(さが)や癖を利用するものが多かった。AIが人事や経営などの高度な意思決定を支援するにはもうひと工夫必要だ。
「人事支援はAIの判断が納得できないと導入を決断できない」と三菱総合研究所の山野高将主任研究員は指摘する。新卒採用は、人間の担当者でも判断基準をなかなか説明しきれない仕事だ。
学生側と企業側の両方が納得する採用は簡単ではない。だがAIをサービスとして提供する以上、説明責任や納得感が求められる。
三菱総研はエントリーシートや適性検査と過去の採用履歴などを学習し、人材とポストをマッチングするAIサービスを提供する。
“納得”を引き出すため、企業担当者の採用方針を反映しやすいようにユーザーインターフェースを設計した。求める人材像にあわせて「業界内志望度」「コミュニケーション」「リーダーシップ」など約100項目の優先順位をユーザーが調整できる。
ユーザーが自らパラメーター調整して、その都度AIが優先して評価すべきだと提案する人材たちを確認する。サービスにユーザーを巻き込むことで納得度を高めている。
山野主任研究員は「深層学習でデータ量をむやみに増やしても、その判断はブラックボックスになってしまう。それよりも人事の知見とAIを組み合わせるハイブリッド型が有効」と説明する。
システムの意思決定にユーザーを巻き込み、ユーザーが自ら選んだように感じさせる技術は強力だ。大阪大学の石黒浩教授とドワンゴが開発した「恋愛実験神社」は初対面の男女がラブコメのような会話を楽しむ。
あらかじめストーリーは決まっており「あなたは好みのタイプ」「嫌いじゃないかも」などのような選択を選ぶ。ストーリーは用意されたものとわかっていても相手の印象が良くなる。石黒教授は「カップル成立率は8割」という。
AIが最良の選択肢だと説明するよりも、ユーザーの意思決定を誘導する方がサービス満足度は高くなるかもしれない。特にプライバシーに関わる生活分野は、説明よりもそそのかす方が適切だ。
例えばEC(電子商取引)サイトは技術的にはユーザーの冷蔵庫の牛乳やトイレットペーパーの残量を購入履歴から推定できてしまう。
在庫量に応じて商品購入を提案することはできるが、冷蔵庫の中身を説明されるとユーザーは忌避感を覚えかねない。そのため「他のユーザーも買っている」など、同調圧力をかける方法が選ばれている。
人間の意図をくみ取って利用する研究も進んでいる。東京大学の鳴海拓志講師はキャラクターをジャンプさせてコインをとるゲームで、ゲームのシステム側でジャンプの軌道を調整して高得点をとらせた。
ユーザーにシステムの補助を気が付かせずに満足度を向上させた。この知見は自動運転技術にも応用できる。ハンドルなどの挙動から右左折や追い抜きの意思を検出して、実際の車両の軌道は自動運転が担うといった具合だ。
すでに急ブレーキ時のタイヤロックを防ぐなど、ブレーキアシスト機能は実用化している。より高度な運転支援を導入する際に、支援のタイミングやレベルの調整に応用する。
鳴海講師は「自動運転は安心と快適が必ずしも一致しない。なぜいま回避機能が働いたのかわからないと快適でなくなる」と指摘する。自分で車両をコントロールしている納得感を保ったまま高度な支援を目指す。
現状、AIがわかりやすく説明することは難しく、100%正しく判断するのも困難だ。必ず不確かさが含まれるが、AIの提案が外れると満足度を大きく損なう。明治大学の小松孝徳准教授はロボットの語尾のビープ音の上げ下げなどで、AIの判断に対するユーザーの許容度を広げる技術を研究する。
例えば道案内AIが右のルートの方が「早く着く可能性65%」と説明するのではなく「早く着くプー↓」と自信なさげに表現する方法を提案する。小松准教授は「AIが言葉で自信のなさを伝えるよりもビープ音で伝える方が、受け手側は素直にその情報を受けとめやすい。また解釈にかかる時間が短い利点がある」という。
素直に受け止められるとAIサービスにイライラしにくくなるかもしれない。今後、AIとの雑談が増えると、雑談には答えがない問いが多いため、まじめな答えだけでは収拾がつかなくなる。ビープ音のような補助的な表現が「(AIの)冷徹なイメージ軽減に貢献する」(小松准教授)と期待する。
ユーザーを納得させる技術は、AI側が下手に出てユーザーの自発的な意思を引き出すものが成功している。産業技術総合研究所人工知能研究センターの麻生英樹副センター長は「無理にAIが説得するよりも、意思決定の流れが決まっている分野ではそれを支援する方が現実的だ」と指摘する。
医師の診療ガイドラインやカイゼン活動のQC七つ道具など、特定の意思決定フローがあればAIを導入しやすい。従来は説明に納得できるかどうかよりも、ビジネスや競争に勝てるかどうかで新技術を導入してきた。ロボットやAIは道具だった。
今後はより高度な意思決定や正解のない領域にもAIが導入される。石黒教授は「AIも間違える前提に立つと、より人間らしく、生きているかのようなシステムでなければ受け入れられなくなる」と指摘する。説明するAI技術と、人間から納得を引き出す技術の融合が求められる。
(文=小寺貴之)
ユーザー巻き込め
「人事支援はAIの判断が納得できないと導入を決断できない」と三菱総合研究所の山野高将主任研究員は指摘する。新卒採用は、人間の担当者でも判断基準をなかなか説明しきれない仕事だ。
学生側と企業側の両方が納得する採用は簡単ではない。だがAIをサービスとして提供する以上、説明責任や納得感が求められる。
三菱総研はエントリーシートや適性検査と過去の採用履歴などを学習し、人材とポストをマッチングするAIサービスを提供する。
“納得”を引き出すため、企業担当者の採用方針を反映しやすいようにユーザーインターフェースを設計した。求める人材像にあわせて「業界内志望度」「コミュニケーション」「リーダーシップ」など約100項目の優先順位をユーザーが調整できる。
ユーザーが自らパラメーター調整して、その都度AIが優先して評価すべきだと提案する人材たちを確認する。サービスにユーザーを巻き込むことで納得度を高めている。
山野主任研究員は「深層学習でデータ量をむやみに増やしても、その判断はブラックボックスになってしまう。それよりも人事の知見とAIを組み合わせるハイブリッド型が有効」と説明する。
システムの意思決定にユーザーを巻き込み、ユーザーが自ら選んだように感じさせる技術は強力だ。大阪大学の石黒浩教授とドワンゴが開発した「恋愛実験神社」は初対面の男女がラブコメのような会話を楽しむ。
あらかじめストーリーは決まっており「あなたは好みのタイプ」「嫌いじゃないかも」などのような選択を選ぶ。ストーリーは用意されたものとわかっていても相手の印象が良くなる。石黒教授は「カップル成立率は8割」という。
AIが最良の選択肢だと説明するよりも、ユーザーの意思決定を誘導する方がサービス満足度は高くなるかもしれない。特にプライバシーに関わる生活分野は、説明よりもそそのかす方が適切だ。
例えばEC(電子商取引)サイトは技術的にはユーザーの冷蔵庫の牛乳やトイレットペーパーの残量を購入履歴から推定できてしまう。
在庫量に応じて商品購入を提案することはできるが、冷蔵庫の中身を説明されるとユーザーは忌避感を覚えかねない。そのため「他のユーザーも買っている」など、同調圧力をかける方法が選ばれている。
説得よりも手助け、人の意図くみ取る
人間の意図をくみ取って利用する研究も進んでいる。東京大学の鳴海拓志講師はキャラクターをジャンプさせてコインをとるゲームで、ゲームのシステム側でジャンプの軌道を調整して高得点をとらせた。
ユーザーにシステムの補助を気が付かせずに満足度を向上させた。この知見は自動運転技術にも応用できる。ハンドルなどの挙動から右左折や追い抜きの意思を検出して、実際の車両の軌道は自動運転が担うといった具合だ。
すでに急ブレーキ時のタイヤロックを防ぐなど、ブレーキアシスト機能は実用化している。より高度な運転支援を導入する際に、支援のタイミングやレベルの調整に応用する。
鳴海講師は「自動運転は安心と快適が必ずしも一致しない。なぜいま回避機能が働いたのかわからないと快適でなくなる」と指摘する。自分で車両をコントロールしている納得感を保ったまま高度な支援を目指す。
AI側が下手に出る、満足度高めるシステムに
現状、AIがわかりやすく説明することは難しく、100%正しく判断するのも困難だ。必ず不確かさが含まれるが、AIの提案が外れると満足度を大きく損なう。明治大学の小松孝徳准教授はロボットの語尾のビープ音の上げ下げなどで、AIの判断に対するユーザーの許容度を広げる技術を研究する。
例えば道案内AIが右のルートの方が「早く着く可能性65%」と説明するのではなく「早く着くプー↓」と自信なさげに表現する方法を提案する。小松准教授は「AIが言葉で自信のなさを伝えるよりもビープ音で伝える方が、受け手側は素直にその情報を受けとめやすい。また解釈にかかる時間が短い利点がある」という。
素直に受け止められるとAIサービスにイライラしにくくなるかもしれない。今後、AIとの雑談が増えると、雑談には答えがない問いが多いため、まじめな答えだけでは収拾がつかなくなる。ビープ音のような補助的な表現が「(AIの)冷徹なイメージ軽減に貢献する」(小松准教授)と期待する。
ユーザーを納得させる技術は、AI側が下手に出てユーザーの自発的な意思を引き出すものが成功している。産業技術総合研究所人工知能研究センターの麻生英樹副センター長は「無理にAIが説得するよりも、意思決定の流れが決まっている分野ではそれを支援する方が現実的だ」と指摘する。
医師の診療ガイドラインやカイゼン活動のQC七つ道具など、特定の意思決定フローがあればAIを導入しやすい。従来は説明に納得できるかどうかよりも、ビジネスや競争に勝てるかどうかで新技術を導入してきた。ロボットやAIは道具だった。
今後はより高度な意思決定や正解のない領域にもAIが導入される。石黒教授は「AIも間違える前提に立つと、より人間らしく、生きているかのようなシステムでなければ受け入れられなくなる」と指摘する。説明するAI技術と、人間から納得を引き出す技術の融合が求められる。
(文=小寺貴之)
日刊工業新聞2018年3月21日