フェイク動画も容易に…法規制の要否問う、内閣府でAI制度の検討が始まった
影響・リスク大領域に対応 規制自体を検証、選択肢必要
内閣府で人工知能(AI)制度の検討が始まった。AIという技術を対象とする法規制について要否を含めて検討する。従来はガイドラインと個別の業法を組み合わせて対応し、制度の柔軟性を担保する考えがあった。影響やリスクが大きな領域では法規制などでの確実なリスク対応が求められている。まだ顕在化していないリスクにも対応するなら、AIへの包括的な規制にならざるを得ないと見込まれる。すると実行性の担保が難しくなる。(小寺貴之)
「総理のフェイク動画が出てきて、試しに内部で作らせたら簡単に作れてしまった。20個ほどAIツールがあり、なにも制限のないツールもある」―。ある政府関係者はため息をつく。英語のツールは岸田文雄首相の声を入力すると、著名な人の声は使えないと拒否された。イスラエルのツールは本人に許諾を得ているか確認ボタンが表示された。インドと中国のツールは自由に作れた。「問題になっている著名人のなりすまし動画は必ずしもAI製ではない。だが今後はより簡単に作れるようになる」。
AIは変化が速いため、法律などにAIの定義や規律対象を明確に記述することが難しい。詳細に書けば変化に追随できず、広く定義すると規律対象も広く曖昧になり開発を萎縮させかねない。そこで柔軟性を持たせるためにガイドラインと必ず守らねばならない部分は既存の業法で守るという方針で進めてきた。だがなりすまし問題などで、海外のITプラットフォーマーが日本市場に対して必ずしも誠実に対応してくれるわけではないことも明確になった。
英語圏での対応に手いっぱいになり、非英語圏が後回しになるリスクがある。事業者に対応を求めるためにも根拠となる法や規制が必要という声が政界から上がっている。2023年に米オープンAIのサム・アルトマン最高経営責任者(CEO)が首相と面会した当時と、なりすまし問題への米メタなどの対応を経た現在では空気が変わった。
だが空気で規制が作られる訳ではない。内閣府が設置したAI制度研究会で法規制を検討し、今秋に中間報告をとりまとめる。ヒアリングはこれからだが政府関係者は「1年でやれと言われれば、まず法律で骨格を作り、後から政令や省令で埋めていくことになる。2―3年かけていいと言われれば丁寧にやれる」と説明する。
包括的なAI規制として参考になるのは欧州連合(EU)のAI法案だ。人権侵害や差別などのリスクに対しセンシティブな情報を扱うAIは禁止する。AI制度研究会構成員の平野晋中央大学教授は「初回会合ではEUのAI法案は先を行き過ぎているという見方が多かった」と振り返る。内閣府の渡辺昇治審議官は「日本が一足飛びにEU方式を選ぶのは難しいかもしれない。いずれにせよ、この1年ですべてが決まるわけではない」と説明する。
社会が求めるAI規制には振れ幅がある。人権や差別のように守るべき価値観は今後も増え、研究が進めば新たなリスクが顕在化する。規律対象は広がると見込まれる。
一方で強い規制をかけるなら違反を見つける仕組みや事業者が適正化へ投資するインセンティブがないと実行性を担保できない。サンドボックス(隔離された試験空間)などで規制自体を検証して選択肢を用意する必要がある。