ネット上のウソ・いじめ、AIで対策は進むか
ファクトチェックやカウンセリング支援が現実に
フェイクニュースやヘイト、セクハラ、パワハラの情報がメディアやSNSを駆け巡っている。フェイクは2016年の米大統領選でも社会問題になり、いじめやハラスメントは学校と会社の抱える問題だ。この難問に人工知能(AI)で対応する技術開発が進んでいる。AIによるファクトチェック(事実確認)やカウンセリングの支援は現実のものになりつつある。
「虚偽」「根拠なし」「事実誤認」―。ファクトチェックの実践を広げるために17年6月に発足したファクトチェック・イニシアティブ(FIJ、東京都渋谷区)は、第48回衆議院議員選挙に関連した報道や政治家らの発言に厳しい判断を突きつけた。検証作業ではネットの大量の情報の中から記事になる前の「端緒」をつかみ、疑わしい情報を絞り込んで調査にかける。
端緒となった情報は181件、その内68件が調査され22本が記事化された。FIJ理事の乾健太郎東北大学教授は「ツイートのほとんどは役に立たない。“誤報”や“デマ”と検索しても有用な情報は1000に一つもない」と振り返る。これらの端緒情報は人海戦術で調査した。
人海戦術に対し、AI技術でフェイクのスクリーニングを効率化する研究が進んでいる。AIがフェイクを特定するのではなく、フェイクの確率が高い順番に情報を並べ替える。
人間が情報をすべて検証することは不可能だが、優先順位の高いものから確認するとフェイクを見つけやすくなる。乾教授は「手探りよりもはるかに良い技術ができている」と胸を張る。
このAIは文法を加味してフレーズ(単語の集まり)の意味をとる。まず文章の中から単語を高精度に抜き出し、単語をベクトルで表現。この「単語ベクトル」を単純に足し算せずに、文法に則して行列計算にかける。すると、例えば「殺人事件で容疑者が逮捕された」という文脈で、逮捕したのは“警察官”、逮捕されたのは“犯人”など、意味の通った解析が可能になる。
この技術をベースに、人間の見つけたフェイクをAIに学習させ、優先順位を決める。乾教授は「単語ベクトルだけでは、フェイクをいくら学習させても精度は上がらない。文法を加味することで学習が回るようになる」という。
フェイクニュースが集まるほど識別精度が高まり、人間の負担が軽くなる。東北大の技術をもとにスマートニュース(東京都渋谷区)がシステムを構築し、18年夏に稼働させる予定だ。
ネット上でのいじめやハラスメントも深刻化している。SNSはいじめの道具にも、相談窓口にもなる。文部科学省はSNSを活用した相談体制の構築するために17年度補正予算に2億円を計上した。
神奈川県座間市で起きた殺人事件を受け、自殺願望やいじめなどの悩みを広く受け止めるのが狙いだ。SNS相談は電話や対面に比べて心理的なハードルが低く、気軽に相談できる窓口になるかもしれない。
LINEは長野県や情報法制研究所(東京都文京区)などと、いじめ相談の実証実験をしてきた。この実験では10人のカウンセラーが390人の相談に乗った。京都大学の杉原保史教授(臨床心理士)は「テキストメッセージだけでも、子どもに寄り添うことはできた」と評価する。
課題は相談内容の真偽や深刻さを判断しにくい点だ。AI技術を研究する鳥海不二夫東京大学准教授は「『死にたい』『もう死ぬ』といったメッセージだけでは解析し難い」と説明する。
とはいえ、LINE相談から電話相談への切り替えも難しい。SNSなら誰にも聞かれずに匿名のまま相談できるが、電話だと家族に相談内容を聞かれるリスクがあるためだ。
そこでカウンセラーとの相談の前に、自動応答AIの大雑把な対話で状況を整理する用途を検討する。鳥海准教授は「背景情報を一覧して状況を把握してから相談できるよう支援したい」とする。自動応答AIは民間のコールセンターやECサイトなどの顧客対応に導入が進んでいる。
フェイクニュースやいじめの発生自体をAIが防ぐことはまだ難しい。だが発生後の分析や相談などの支援はできるようになりつつある。この過程でデータを蓄積すればより高度な支援も目指せる。
ただ利用には慎重さも必要だ。例えばファクトチェックで記事をフェイクとした根拠を説明する記事を、AIで作成するのは難しい。
記事への評価は事実か虚かの2択ではなく、誤認や拡大解釈、ミスリードなど解釈に対する説明がいる。乾教授は「極めて高度な判断が含まれる。機械で置き換えていい判断ではない」と指摘する。
そこで事実確認作業の論点整理を支援する。情報を探す際に、賛同する論点と否定する論点を一覧表示する。乾教授は「あらゆるウェブページはまだ難しいが、情報源を限れば賛否検索はできつつある」と強調する。
ヘイトやフェイクが力をもつ要因の一つに熱烈な賛同者の支持がある。ヘイトなど偏った情報でも“一理”ある部分を支持者が強調すると、それに流されて巻き込まれる人も出てくる。SNSを炎上させて支持者を増やすテクニックの一つだ。賛否検索の適用範囲が広がれば賛否両方の根拠を把握し、公平な判断がしやすくなるかもしれない。
LINEはSNSカウンセリングを充実すためノウハウをまとめ、カウンセリングコンテンツを開発する予定だ。ただ座間市の事件のような犯罪者にカウンセリングコンテンツを悪用される可能性もある。
LINEの江口清貴公共政策室長は「確信犯の悪用は最も難しい問題。簡単に答えは出ない」という。良質なコンテンツも技術も悪用され、広がる可能性がある。AI技術を磨くよりも難しい問題が横たわっている。
(文=小寺貴之)
「虚偽」「根拠なし」「事実誤認」―。ファクトチェックの実践を広げるために17年6月に発足したファクトチェック・イニシアティブ(FIJ、東京都渋谷区)は、第48回衆議院議員選挙に関連した報道や政治家らの発言に厳しい判断を突きつけた。検証作業ではネットの大量の情報の中から記事になる前の「端緒」をつかみ、疑わしい情報を絞り込んで調査にかける。
端緒となった情報は181件、その内68件が調査され22本が記事化された。FIJ理事の乾健太郎東北大学教授は「ツイートのほとんどは役に立たない。“誤報”や“デマ”と検索しても有用な情報は1000に一つもない」と振り返る。これらの端緒情報は人海戦術で調査した。
人海戦術に対し、AI技術でフェイクのスクリーニングを効率化する研究が進んでいる。AIがフェイクを特定するのではなく、フェイクの確率が高い順番に情報を並べ替える。
人間が情報をすべて検証することは不可能だが、優先順位の高いものから確認するとフェイクを見つけやすくなる。乾教授は「手探りよりもはるかに良い技術ができている」と胸を張る。
このAIは文法を加味してフレーズ(単語の集まり)の意味をとる。まず文章の中から単語を高精度に抜き出し、単語をベクトルで表現。この「単語ベクトル」を単純に足し算せずに、文法に則して行列計算にかける。すると、例えば「殺人事件で容疑者が逮捕された」という文脈で、逮捕したのは“警察官”、逮捕されたのは“犯人”など、意味の通った解析が可能になる。
この技術をベースに、人間の見つけたフェイクをAIに学習させ、優先順位を決める。乾教授は「単語ベクトルだけでは、フェイクをいくら学習させても精度は上がらない。文法を加味することで学習が回るようになる」という。
フェイクニュースが集まるほど識別精度が高まり、人間の負担が軽くなる。東北大の技術をもとにスマートニュース(東京都渋谷区)がシステムを構築し、18年夏に稼働させる予定だ。
真偽・深刻さ、どう見分ける?
ネット上でのいじめやハラスメントも深刻化している。SNSはいじめの道具にも、相談窓口にもなる。文部科学省はSNSを活用した相談体制の構築するために17年度補正予算に2億円を計上した。
神奈川県座間市で起きた殺人事件を受け、自殺願望やいじめなどの悩みを広く受け止めるのが狙いだ。SNS相談は電話や対面に比べて心理的なハードルが低く、気軽に相談できる窓口になるかもしれない。
LINEは長野県や情報法制研究所(東京都文京区)などと、いじめ相談の実証実験をしてきた。この実験では10人のカウンセラーが390人の相談に乗った。京都大学の杉原保史教授(臨床心理士)は「テキストメッセージだけでも、子どもに寄り添うことはできた」と評価する。
課題は相談内容の真偽や深刻さを判断しにくい点だ。AI技術を研究する鳥海不二夫東京大学准教授は「『死にたい』『もう死ぬ』といったメッセージだけでは解析し難い」と説明する。
とはいえ、LINE相談から電話相談への切り替えも難しい。SNSなら誰にも聞かれずに匿名のまま相談できるが、電話だと家族に相談内容を聞かれるリスクがあるためだ。
そこでカウンセラーとの相談の前に、自動応答AIの大雑把な対話で状況を整理する用途を検討する。鳥海准教授は「背景情報を一覧して状況を把握してから相談できるよう支援したい」とする。自動応答AIは民間のコールセンターやECサイトなどの顧客対応に導入が進んでいる。
最終判断は人、賛否両論で判断支援
フェイクニュースやいじめの発生自体をAIが防ぐことはまだ難しい。だが発生後の分析や相談などの支援はできるようになりつつある。この過程でデータを蓄積すればより高度な支援も目指せる。
ただ利用には慎重さも必要だ。例えばファクトチェックで記事をフェイクとした根拠を説明する記事を、AIで作成するのは難しい。
記事への評価は事実か虚かの2択ではなく、誤認や拡大解釈、ミスリードなど解釈に対する説明がいる。乾教授は「極めて高度な判断が含まれる。機械で置き換えていい判断ではない」と指摘する。
そこで事実確認作業の論点整理を支援する。情報を探す際に、賛同する論点と否定する論点を一覧表示する。乾教授は「あらゆるウェブページはまだ難しいが、情報源を限れば賛否検索はできつつある」と強調する。
ヘイトやフェイクが力をもつ要因の一つに熱烈な賛同者の支持がある。ヘイトなど偏った情報でも“一理”ある部分を支持者が強調すると、それに流されて巻き込まれる人も出てくる。SNSを炎上させて支持者を増やすテクニックの一つだ。賛否検索の適用範囲が広がれば賛否両方の根拠を把握し、公平な判断がしやすくなるかもしれない。
LINEはSNSカウンセリングを充実すためノウハウをまとめ、カウンセリングコンテンツを開発する予定だ。ただ座間市の事件のような犯罪者にカウンセリングコンテンツを悪用される可能性もある。
LINEの江口清貴公共政策室長は「確信犯の悪用は最も難しい問題。簡単に答えは出ない」という。良質なコンテンツも技術も悪用され、広がる可能性がある。AI技術を磨くよりも難しい問題が横たわっている。
(文=小寺貴之)
日刊工業新聞2018年1月11日