「フェイクビデオ」をAIで摘発、学習コストの課題克服へ

動画の偽造は社会問題になっている

 国立情報学研究所の山岸順一准教授と越前功教授、パリ東マルヌ・ヴァレ大学のヴィンセント・ノジック准教授は、人工知能(AI)で偽造された動画「フェイクビデオ」を見破るAI技術を開発した。人の顔を移し替える、思い通りにしゃべらせるといったAIによる偽造を暴く。今回開発したAI技術は偽造側のAIより学習コストを抑えた。偽造と摘発がいたちごっこになっても、摘発側が優位になる。

 近年、政治家などの顔の動画を操作して発言していないコメント入れ込んだビデオを偽造することや、アダルトビデオの出演者に人気女優の顔を移植した動画などが社会問題になっている。口や目などが滑らかに動き、表情も自然にできており簡単には識別できない。

 そこでフェイクビデオと元の動画を学習して識別するAI技術を開発した。顔移植は98%、表情操作は95%の精度で識別できた。動画のフレーム1枚ごとに真偽を判定する場合、1分間のビデオの識別に3―4分間かかる。フレーム数を間引けば処理時間を減らせ、リアルタイムに識別できる。ウェブブラウザーなどに組み込める。

 真偽を見破るAIができると、摘発側と偽造側のAIを対立するシステムとして組み上げて、さらに学習させることが可能。その場合、摘発AIをだますように偽造AIを育てられるという技術的な問題がある。

 そこで山岸准教授らは、摘発AIの構造をできる限り単純化した。4層のニューラルネット型とシンプルな構造を採用している。顔移植のAIの場合、移植する人とされる人の顔の画像がそれぞれ1万枚必要となる。だが、摘発AIは5000枚の顔で識別できるという。学習コストが小さく摘発側を優位に保てる。

日刊工業新聞2018年10月3日

国広 伽奈子

国広 伽奈子
10月03日
この記事のファシリテーター

情報の受け手側にも高いメディアリテラシーが求められるとはいえ、動画の真偽まで見抜くことは難しそう。いたちごっこに終止符が打つ決め手になるのでしょうか。

この記事にコメントする

  

ファシリテーター紹介

記者・ファシリテーターへのメッセージ

この記事に関するご意見、ご感想
情報などをお寄せください。