AIに依存する情報リテラシー。そのリスクとは

元国立国会図書館館長・長尾真氏に聞く「依存するリスクを教えるべき」

  • 1
  • 3
 人工知能(AI)は情報リテラシー(活用能力)のあり方を変えていく。検索サイトが情報の“収集”を自動化し「もう知識の詰め込みは要らない」とさえ言われた。現在ささいな判断や流行は検索結果に左右されている。将来AIは情報をまとめ、解決策を提案する。情報の“利用”が自動化される時代に、いかにリテラシーを保つのか長尾真元国会図書館館長に聞いた。

 ―漢字変換や計算など自動化された知的活動が増え、機械への依存が高まっています。
 「ホワイトカラーの仕事も空洞化する。職人技が機械化されて技術の進化が止まり、人が減って技術が失われることと同じだ。あらゆる技術や知的活動、産業に空洞化のリスクがある。成熟して定型化し、機械に代替されれば、いずれブラックボックスになる。だが検索技術ができたから知識は要らないとはならない。情報を判断するための知識が必要だ。検索の上位しか見なければ判断が偏る。AIが解決策を提案しても、判断を委ねるリスク、依存するリスクを教えるべきだろう」

 ―検索で人間はより短絡的で極端になったとされます。予見されつつもリテラシー教育で防げませんでした。
 「多くの人は検索サイトに依存すると偏ること知っている。それでも委ねるかどうかはその人の意欲や必要性による。自動車のルート選択など便利なサービスは自動化を受け入れ、計算はAIに任せた方が安心だ。ただ経営者がAIに会社の命運を託すことはないだろう。これは相手が人間でも同様だ。地震や経済の専門家の言うことは市民にとってはブラックボックスだ。予測は難しく事後説明がふに落ちるかどうか」

(長尾氏)

現在の検索AIはまだ未熟


 ―AIリテラシーが必要なのでしょうか。
 「依存リスクは教えた方が良い。情報工学者としては特別なリテラシーが必要なAIは情けない。人間と話す場合と同じリテラシーで問題のないAIを目指したい。現在の検索AIはまだ未熟だ。情報の偏りだけでなく、個人の背景やそのときの気持ちを配慮できない。人間同士なら口調や表情で瞬時に察する。検索から対話に進むために心理とAIの融合研究や個別化の研究に注力すべきだ。AIリテラシーは未熟なAIを使う際に必要になる一時的な力だ。いずれ医師にセカンドオピニオンを求めるように、複数のAIのダブルチェックですませるようになるだろう」

 ―空洞化防止策は。
 「ノウハウや技術をデジタル化し機械やAIとして、しっかりと残すことだ。矛盾するが、若い世代の成長を助け、新しい分野への挑戦を促すことにもなる」

【記者の目・不完全AI、検証できる人材カギ】
 「コンピューター」は元々人間の「計算職」を指す言葉だ。機械化によって専門職がなくなり、いまや電卓の計算精度を疑う人はいない。計算精度を検証できる人は限られ、大半はただ依存している。リテラシーは不完全な知性や不完全な機械に依存しない力だが、不完全なAIに依存するリスクを評価できる人は少数という問題がある。
(聞き手=小寺貴之)

COMMENT

長尾先生は目指すべきAI像として「ベテランの編集委員がコラム欄を書くように、誰でも気の利いたコラムが書けるようにする支援AIを開発すべき」と言います。多くの人が「オッ」や「へー」と思う知識を提示するシステムで、単に知っている人が少ない知識ではありません。文脈として成立していて、新しい視点を提示する技術です。そして、この「オッ」の部分をユーザーごとにパーソナライズするそうです。個人の背景や嗜好を汲み取って提示する必要があります。実現すれば対話やコンテンツ制作など幅広い分野で使えます。一方、パーソナライズと情報操作の区別が難しくなり、ユーザーの思考の変化まで含めて、その情報操作は偶発なのか、意図性があるか検証する技術が求められます。これはリテラシー自体のAI化と言えると思います。 (編集局科学技術部 小寺貴之)

関連する記事はこちら

特集