AI事業者の責務どこまで…日本がG7へ中間報告で原案
人工知能(AI)技術の国際協調に向け、政府が先進7カ国(G7)で進める「広島AIプロセス」に提案する中間報告の原案がまとまった。AIの開発者や利用する事業者などが守るべき責務を整理し、責務をどこまで求めるかを明確にする。さらに信頼性を担保するための技術や取り組みを併記した。ここに日本の戦略が含まれており、責務としてプレッシャーをかけ、事業者を信頼性担保の枠組みに導く。9月のG7閣僚級会合で合意できれば、G7から世界の国々に協調を呼びかける。(小寺貴之)
「具体的なプロジェクトはこれから。まずはG7で責務範囲や規制調和への合意を目指す」―。村井英樹首相補佐官はG7閣僚級会合への姿勢をこう説明する。各国の意見をすりあわせた中間報告をとりまとめる方針で、今回、日本が示す中間報告の原案が固まった。内容は非公開だが、AIの開発者や提供者、利用者などの事業者が果たすべき責務を整理している。
例えば「開発者は不適切な入出力を防ぐ対策を講じる」など、誰にどこまでの責務を求めるか認識をそろえ、責務を履行させる仕組みを整える。内閣府の渡辺昇治統括官は「欧州は規制、米国は企業の自主的なコミットメントなどと姿勢が分かれる」と説明する。履行の仕方は変わっても、責務の範囲で共通認識ができれば事業者が取るべき行動は自ずと決まっていく。
そのため日本案ではデータの履歴を管理する技術や電子透かしなど、AI生成物やAIの学習データなどへの信頼性を担保する仕組みを挙げる。偽情報対策が責務となれば検証システム、著作権侵害対策が責務となればデータ分析技術などが必要になる。
渡辺統括官は「特定の技術を推すつもりはない。技術や取り組みを含めて信頼性を作るプラットフォーム構築にチャンスを見いだしてもらいたい」と説明する。米国に対して欧州が環境や標準化の認証制度で市場を守ったように、AIの信頼を担保するための基盤作りは、品質で勝負してきた日本企業の活路になるかもしれない。
広島AIプロセスでは9月の合意の後、11―12月の閣僚級会合で最終成果をまとめる。日本の提案がどこまで認められるか不透明だが、G7での合意は20カ国・地域(G20)など、G7から世界に広げることになる。焦点はG7として具体的なプロジェクトを組成できるかどうかだ。
世界の国々に責務などのあるべき論を持ちかけても動かない。G7としてAIの信頼構築につながるプロジェクトを動かし、参画を呼びかける形になる。これは情報空間をめぐる地政学的な挑戦になる。9月の合意の先に具体策を提示できるか注目される。