ニュースイッチ

「価値観」は人の判断必須、政府がまとめたAI指針の中身

各業界で事例積み上げ

人工知能(AI)を開発利用する事業者向けのガイドライン案がまとまった。安全性や公平性、透明性など10項目31個の指針を示して適正なAI活用を促す。課題はAIを通して現れる社会の偏見や価値観に踏み込まざるを得ない点だ。公平性や公正性など価値観に触れる事項は、社会の許容ラインが変動する。定量的に扱えず、事例を積み上げていく必要がある。今後、日本では業界ごとのガイドライン策定が始まる。各分野のガイドラインの事例を全体ガイドラインに反映し更新し続けるエコシステム(協業の生態系)が必要になる。(小寺貴之)

「ガイドラインはリビングドキュメント(動的文書)。AIの進化に合わせて走りながら変えていく」と内閣府科学技術・イノベーション推進事務局の渡辺昇治統括官は説明する。経済産業省と総務省は本編35ページ、別添は145ページのガイドライン案をまとめた。パブリックコメントを経て3月末に正式決定し、ガイドラインとして施行となる予定だ。

内容は幅広い。先進7カ国(G7)で進める広島AIプロセスでの検討を含め、AI規制で議論されてきた項目をすべて取り上げた。米国は1年弱をかけて巨大ITなどのAI開発者を中心に事業者主体のガイドラインで適正活用を促す。欧州は開発者や利用者を含めた広いステークホルダーを法律で規制する。大筋合意はしたものの施行まで2年かかるとされる。日本は7カ月でAIに関わるすべての事業者に適正活用を促すガイドラインをまとめた。渡辺統括官は「スピードと広さを両立できた」と目を細める。

「価値観」は人の判断必須

AI戦略会議で発言する岸田首相(左から2人目、昨年12月21日、首相官邸)

課題は価値観に触れる項目だ。例えばフェイク(偽情報)やセキュリティーなどは技術的に対策できる。ガイドラインでもフェイク対策にはAI生成物と表示する仕組み、AIセキュリティーでは学習データに毒データを混ぜる攻撃手口やデータの保護管理を挙げて対策を促した。対して価値観に触れやすい公平性では性別や人種などのセンシティブ属性を挙げ学習時に考慮するよう促すものの、AIモデルから完全にバイアスを排除できないことを踏まえて人による判断を介在させることを求めている。ガイドラインユーザーは、結局どの程度のバイアスが社会に許容され得るのか自らの責任で判断する必要がある。

総務省の山野哲也参事官は「求められるレベルが分野や使い方によって大きく変わる。各事業者に自ら考えてもらうことが重要」と説明する。人事選考や採用、保険やローンの査定など、人生に大きな影響を与える場面では高い公平性が求められる。データに潜むバイアスをAIモデルで低減していれば許容されるのか、人事採用などのプロセス全体で人が補い公平性を担保していれば許容されるのか、それらをいかに説明して納得してもらうのか、判断が難しい。

また事業者が気がつきにくい例もある。配送サービス最適化などで位置情報や住所をAIに学習させる際に、同和問題の影響がAIの判断に現れる可能性が指摘されている。データには情報自体が含まれ得るが、AIモデルの出力にどれだけ影響しているかを検証する必要がある。仮に影響があった場合に、どの程度の影響度から是正が必要なのか判断が難しい。山野参事官は「価値観や許容ラインを国が提示すべきなのかという問題もある。各分野での事例を積み上げていくしかない」と指摘する。

ステークホルダーと事業設計段階で検証

そこで各業界で作る業界ガイドラインと全体ガイドラインの連携が重要になる。各業界でのセンシティブ属性の共有やバイアスへの対処、説明責任の果たし方など、業界ガイドラインから事例を集めて、全体ガイドラインで共通事項を共有していく。そのためには各業界でステークホルダーを巻き込んで課題と解決策を考え、ガイドラインに反映させる仕組みが必要だ。この制度やルールを逐次更新し続ける仕組みは「アジャイルガバナンス」と呼ばれる。経産省の橘均憲情報政策企画調整官は「各業界でのアジャイルなガバナンス同士がつながっていくことが重要」と指摘する。ガイドラインでも安全性や公平性などの指針を実践する方法論としてアジャイルガバナンスについてページが割かれた。

内閣府の渡辺統括官は「ガバナンスはビジネスモデルが深く絡んでくる。最高情報責任者(CIO)だけでなく、最高経営責任者(CEO)が扱う経営問題になっている」という。経営層のコミットメントを求める。

特に公正競争確保についてはガイドラインでは詳細を書けなかった。これは国内ではまだ公正競争が争点化した事案がないためだという。クリエイターと画像生成AIサービスなど、データ提供者やユーザーが脆弱性検証に協力するかどうかはプラットフォーマーからの利益配分次第でもある。AIサービス全体を健全に運用するにはビジネスモデルの設計段階でステークホルダーを巻き込んだ検証が必要になる。

ガイドラインはできあがったものの、更新していくには産業界の協力が欠かせない。ガイドラインの実践に向けて巻き込まねばならないステークホルダーは拡大している。日本はこうしたエコシステム構築に課題があった。岸田文雄首相は「広島AIプロセスはこれで終わりではない。G7以外の国や企業に広げていくことが重要」と説明する。AIは新しいガバナンスを官民でアジャイルに実践するモデルになる。2024年がその一歩を踏み出す年になるか注目される。


【関連記事】 AIソフトで生産コストの削減を支援する注目の企業
日刊工業新聞 2024年01月04日
小寺貴之
小寺貴之 Kodera Takayuki 編集局科学技術部 記者
米国が開発企業主導のガイドライン、欧州は法律による規制を進めていて、日本はどちらとも矛盾しないようにガイドラインを官民で策定していきます。日本の独自性はどこかと問われると難しいかもしれませんが、変なルールを作って欧米からスルーされても意味ないので、現実路線を歩んでいるのだと思います。生成AIに規制は必要かと聞かれれば、適正なルールは必要と答える人が多いです。ただ生成AIの規制というよりも、使い方や業界ごとに各論を詰めないといけません。各論はその分野ごとに既に規制や慣習があるので、それらと整合させていく仕事が必要です。これが結構な負荷になります。また大企業が自社の看板を背負ってセンシティブ属性リストやバイアスの許容度を示すわけにもいかないので、業界として各社がすり合わせる場ができると、国でも個社でもない立場から社会に問いかけて承認を得られるかもしれません。この承認の大部分は沈黙という形になると思います。国が作るガイドラインへの関心は高いものの、業界ごとのガイドラインは専門メディアでないと取り上げないように思います。アジャイルガバナンスで社会との対話は機能するのか、突然センセーショナルなニュースになって社会から拒否されないのか、AIはレピュテーションリスクが大きいだけに心配になります。現状、コンプライアンスや個人情報保護のガイドラインのようにお隣の会社から見本を借りてきて会社名だけ書き換えるようなコピペが最も安上がりです。国としてはアジャイルガバナンスに企業をコミットさせるインセンティブが必要です。ルール作りに関わりながらビジネスモデルに組み込める優位性が挙げられますが、日本で作ったルールが国外に波及するわけでもないのが難しいところです。全体のガイドラインは欧米の間を取り持つ折衷案で日和見に見えますが、業界ごとのガイドラインには戦略を組み込めるのかもしれません。そのための自由度を残したとも言えなくもないです。安く無難なコピペガイドラインになるのか、戦略性のあるガイドラインになるのか業界ごとに分かれていくのだと思います。

編集部のおすすめ