どうする?AI規制…法制度化へ、内閣府がまとめた中間報告案の中身
内閣府で人工知能(AI)規制について検討してきたAI制度研究会は26日、官民でAI安全性の向上を目指す中間報告案をまとめた。国にAI安全性の調査機能を整備し、民間には調査協力を求める。調査に答えるためには「レッドチームテスト」などで安全を検証する必要性が生じる。悪質な事例が積み重なるとテスト項目が増えてコストが膨らむ。業界として適正な利用を広めていく必要がある。(小寺貴之)
「イノベーションの加速とリスク対応を両立させる法案を早期に国会へ提出するように」―。石破茂首相は同研究会からの報告を受けて、法制度化を指示した。
中間報告案では著作権侵害やバイアス助長などの14のリスク例を示し、ヘイトスピーチ解消法や雇用関係法令などの関係法令を累計42法列挙した。対応が複数の省庁にまたがるため、内閣府の司令塔機能強化や関係機関へ協力を求める権限を法定化すべきと提言した。
さらに国による調査や情報収集と、事業者の調査協力の法制化を求める。基本は現行法での対応を中心としつつ、現行法で対応できない課題に対する新制度の整備などを求めた。
例えば知人や著名人などの画像を利用して裸体画像を生成するディープフェイクポルノの問題では、悪質なものは名誉毀損(きそん)や著作権法違反で訴えられる。その上で言論統制にならないよう悪質か否かの線引きはどこか、現行法で対応できない問題はないかを検討する必要がある。これらは時代に応じて変わり得る。継続的に審議する場と規制を運用する際の柔軟性が必要になる。
内閣府は同研究会の提言を受け、情報収集機能を整備し、民間には調査への協力を努力義務として課す方向で検討している。さらに実行性や抑止力を担保するため、国からの指導や助言、実名公表が選択肢になっている。
事業者が情報収集に応えるためには、自社のAI技術やサービスの安全性を検証しておく必要がある。この検証項目は悪質な事例が発生するたびに増えていくことになる。レッドチームテストは開発時だけでなく運用時にも求められる。項目が増えればAIサービスのコストが膨らんでしまうことから、業界として適正利用を促す動機になり得る。
そして国と業界で継続的に情報を共有し、悪質な事例の予防が求められる。国と業界の双方に情報集約と意見集約を担う審議会機能が必要になる。内閣府幹部は「内閣府だけでなく、関係省庁に予備役的な併任者を配置する必要がある」と説明する。悪質事案の発生時には関連省庁が機動的にカバーする仕組みが必要になる。さらに「霞が関の外の専門家も必要。サイバー犯罪や人権などの知見が必要な場合に外部の専門機関に委託したり、外部の専門家を非常勤で雇用することが必要になる」と指摘する。
国と民間の双方で体制を整えていく必要がある。城内実特命担当相は「官民挙げての人材育成やAI開発者と利用者の情報共有が重要。これらを法案に盛り込んでいく」と力を込めた。
【関連記事】 AIでコストの削減を支援する注目の企業