ニュースイッチ

フェイク動画も容易に…法規制の要否問う、内閣府でAI制度の検討が始まった

フェイク動画も容易に…法規制の要否問う、内閣府でAI制度の検討が始まった

AI制度研究会の初会合で発言する岸田文雄首相(2日午前、首相官邸)

影響・リスク大領域に対応 規制自体を検証、選択肢必要

内閣府で人工知能(AI)制度の検討が始まった。AIという技術を対象とする法規制について要否を含めて検討する。従来はガイドラインと個別の業法を組み合わせて対応し、制度の柔軟性を担保する考えがあった。影響やリスクが大きな領域では法規制などでの確実なリスク対応が求められている。まだ顕在化していないリスクにも対応するなら、AIへの包括的な規制にならざるを得ないと見込まれる。すると実行性の担保が難しくなる。(小寺貴之)

「総理のフェイク動画が出てきて、試しに内部で作らせたら簡単に作れてしまった。20個ほどAIツールがあり、なにも制限のないツールもある」―。ある政府関係者はため息をつく。英語のツールは岸田文雄首相の声を入力すると、著名な人の声は使えないと拒否された。イスラエルのツールは本人に許諾を得ているか確認ボタンが表示された。インドと中国のツールは自由に作れた。「問題になっている著名人のなりすまし動画は必ずしもAI製ではない。だが今後はより簡単に作れるようになる」。

AIは変化が速いため、法律などにAIの定義や規律対象を明確に記述することが難しい。詳細に書けば変化に追随できず、広く定義すると規律対象も広く曖昧になり開発を萎縮させかねない。そこで柔軟性を持たせるためにガイドラインと必ず守らねばならない部分は既存の業法で守るという方針で進めてきた。だがなりすまし問題などで、海外のITプラットフォーマーが日本市場に対して必ずしも誠実に対応してくれるわけではないことも明確になった。

英語圏での対応に手いっぱいになり、非英語圏が後回しになるリスクがある。事業者に対応を求めるためにも根拠となる法や規制が必要という声が政界から上がっている。2023年に米オープンAIのサム・アルトマン最高経営責任者(CEO)が首相と面会した当時と、なりすまし問題への米メタなどの対応を経た現在では空気が変わった。

だが空気で規制が作られる訳ではない。内閣府が設置したAI制度研究会で法規制を検討し、今秋に中間報告をとりまとめる。ヒアリングはこれからだが政府関係者は「1年でやれと言われれば、まず法律で骨格を作り、後から政令や省令で埋めていくことになる。2―3年かけていいと言われれば丁寧にやれる」と説明する。

包括的なAI規制として参考になるのは欧州連合(EU)のAI法案だ。人権侵害や差別などのリスクに対しセンシティブな情報を扱うAIは禁止する。AI制度研究会構成員の平野晋中央大学教授は「初回会合ではEUのAI法案は先を行き過ぎているという見方が多かった」と振り返る。内閣府の渡辺昇治審議官は「日本が一足飛びにEU方式を選ぶのは難しいかもしれない。いずれにせよ、この1年ですべてが決まるわけではない」と説明する。

社会が求めるAI規制には振れ幅がある。人権や差別のように守るべき価値観は今後も増え、研究が進めば新たなリスクが顕在化する。規律対象は広がると見込まれる。

一方で強い規制をかけるなら違反を見つける仕組みや事業者が適正化へ投資するインセンティブがないと実行性を担保できない。サンドボックス(隔離された試験空間)などで規制自体を検証して選択肢を用意する必要がある。

日刊工業新聞 2024年08月08日
小寺貴之
小寺貴之 Kodera Takayuki 編集局科学技術部 記者
AIを使おうが人手でやろうが詐欺は詐欺、虚偽広告は虚偽広告。それぞれ法律も警察も相談窓口もあるのだから、それをしっかり運用してAIという定義さえ曖昧な技術に規制をかけるのは副作用が大きい。イノベーションの芽は摘みたくない。これが、これまでの前提だったと思います。現在は、そうは言っても何か対策しないといけないし、フェイクは溢れんばかりに生成されています。総理のフェイク動画もパロディーや風刺とすれば表現の自由に守られる可能性があるそうです。何年も検討してきて、決定打は本当に総理のフェイク動画なのかと思いつつ、既存の仕組みだけでは対応が追いつかないようにも見えます。AI制度研究会では官僚にかかっているプレッシャーとは独立して検討されるはずです。16年の総務省情報通信政策研究所のレポートを振り返ると、いま顕在化しているリスクや検討課題はほぼほぼ網羅されていました。明るい将来展望と一緒にまとめられたため、当時はSFと区別が付かないなと思っていました。自分のコメントも軽薄で、人間社会も透明性なんてほとんどないじゃないか、定量的に比べたらAIが勝る場面だってあるはずと考えています。その後、リスクや課題が本当に顕在化して、AIか人かに限らず、なかなか解決できない現状があります。机上で検討しても規制の実行性をどう担保するのか答えが出なくて、原則やガイドラインに留まってきたように思います。仮に法規制が入ることになれば、規制自体を社会実験しながら組み上げていくことになるはずです。その実験台となるのは影響リスクの重大領域で、ここで試した仕組みはスケールするのか、制度の抜け穴つぶしは機能するのか、技術開発のいたちごっこは攻撃優位を改められるのかなど、他の分野への応用性を検証しながら改善していくことになるはずです。強度に応じて規制の選択肢を用意しておくことができれば、他の分野にとっても牽制になりえます。AISIはできたし、GPAIの東京センターもできました。官民での実証的なアプローチになっていくのだと思います。

編集部のおすすめ