ニュースイッチ

ロボット・AI、フェイクから守る…求められる「倫理・法・社会的課題研究」実証への移行

ロボット・AI、フェイクから守る…求められる「倫理・法・社会的課題研究」実証への移行

ローソンのレジで働くアバター

ロボットや人工知能(AI)のELSI(倫理的・法的・社会的課題)研究が実証研究への移行を求められている。日本でのELSI研究は新しいテクノロジーのリスクを検討し、円滑な社会実装につなげる役割を期待されてきた。検討が技術開発を阻害しない範囲にとどまり、テクノロジーへの箔付けと揶揄(やゆ)される。だが情報空間では生成AIなどでフェイクが氾濫するようになった。将来のロボットAIサービスもフェイクなサービスと共存しなければならないと見込まれる。開発者や利用者を守るため、実証的に対策を積み上げていく必要がある。(小寺貴之)

アバターで新しい働き方体験 便益リスク考える

「日本から新しい働き方を広げたい。ELSIで安全や健康、幸福を探求してきた日本だから発信できる未来がある」と大阪大学の石黒浩教授は強調する。ロボットやCGのアバター(分身)を遠隔操作して働く社会を目指している。アバターを介すれば、障害や年齢、居住地などでハンディがあっても無理なく働ける。在宅医療が必要な人がベッドの上からコンビニで接客したり、一人で複数の店舗を掛け持ちしたりと障がい者雇用の仕組みを根本から変えるポテンシャルがある。

一方でリスクもある。国際電気通信基礎技術研究所(ATR)インタラクション科学研究所の宮下敬宏所長は「現在のインターネットで起きている事象はすべてアバターでも起き得ると想定している」と説明する。

会員制交流サイト(SNS)でのなりすましやアカウントののっとり、個人請負を介した隷属(れいぞく)的な労働形態などがアバターでも起き得る。著名人のアバターを乗っ取って架空の投資を薦めたり、一日中遠隔操作デバイスを身に着けて待機させても実作業時間分の報酬しか払わなかったりとさまざまなケースが想定される。

こうした課題に対して倫理や法、社会学の専門家が多角的に検証し対策を検討する。例えば労働者保護の観点ではアバターでの働き方と普通の働き方はストレスのかかり方が違う。ヘッド・マウント・ディスプレー(HMD)の描画速度やパソコンの通信安定性でもストレスが変わるため、デバイスの進化に合わせて継続的に検証する必要があった。

そこで血液検査などで操作者のストレスを精密に計測している。医学と労働安全の研究者が連携し、労務管理などのルール策定ためのエビデンス(科学的根拠)を積み上げる。

従来は新技術のリスクを世に問うても想像ができず、「なんだか危なそう」と倦厭(けんえん)される可能性があった。そこで市民がアバターを体験する長期大規模実証実験を続けている。アバターの利点を体験した上で、自動車のように運転免許や車検に相当する制度が必要か考えてもらう。宮下所長は「実証実験では開発に参加している感覚を持ってもらえる。技術開発と一緒に社会の形を考える。技術者と市民の共責任体制ができればもう一歩先に進める」と期待する。

政策につなぐ 「攻撃者の視点」共有

もともと日本では技術開発に付属する形でELSI研究が設置されてきた。研究者の層が薄く、国プロなどの大きなプロジェクトが立ち上がると人手が足りず、広範な課題を数人の研究者でカバーする事態になっている。

利点はアバターのような中期的な研究課題とAI規制のような目の前の政策課題の両方に同じ研究者たちが関わっている点だ。短期と中長期の課題を俯瞰(ふかん)して見られる。

AIの政策面では経済産業省と総務省のAI事業者ガイドラインにレッドチーム演習が明記された。デバッグでなく、攻撃者の視点で脆弱性を検証する。払拭できない脆弱(ぜいじゃく)性には緩和策を用意する。

脅威対策は攻撃者の進歩を想定すると検証範囲が際限なく広がる懸念があり、コスト要因として倦厭されてきた。それでも米国に続く形でガイドラインにレッドチーム演習が採用された。安全性の評価手法や基準を検討するためAIセーフティ・インスティテュート(AISI)が米英に足並みをそろえる形で設置された。今後は机上の検討ではなく、実際のシステム環境に対して具体的に評価されるようになる。

アバターをさまざまな形で体験できる「大阪大学みらい創発hive」のリビングラボ。市民参加の実証実験と研究開発を推進

政策検討の場でも、仮に法律を作ったとしても実行性を担保できるのかが机上の検討では答えが出なかった。産業界のレッドチーム演習などの知見が共有されれば規制と運用の形が見えてくる。

日本の産業競争力に

難しいのはフェイクと判断しがたい情報やサービスの扱いだ。大阪国際工科専門職大学の浅田稔副学長は「白黒付くものばかりではない」と指摘する。例えば個人の健康作りを支援するAIサービスでは、本当に個人にパーソナライズされているのか判断が難しい。フェイクなデータやAIモデル、健康支援メニューなど、さまざまな段階でフェイクが入り込む余地はある。

AI戦略会議の初会合で発言する岸田文雄前首相(右から2人目、昨年5月11日)

そのためユーザー自身もデータを蓄えて検証可能にする必要があるかもしれない。これを情報銀行のようなデータ管理の代行事業者が担えるのか。委ねる先の信頼性はいかに確めるのか。健全な競争環境を成り立たせるための仕組みが模索されている。事業者は競争しながら自社の技術やサービスの正当性を示していく必要がある。浅田副学長は「さまざまな分野でさまざまな対策を試みていくしかない」と説明する。

中国、地方で実証

参考になるのが中国だ。中央政府が地方政府を競わせるように社会実験を進めている。阪大の工藤郁子特任准教授は「上海市や北京市などの地方政府が地元の産業界とイノベーションを阻害しないように規制を作り、その成功と失敗の知見を集めて中央政府が全国に展開している」と説明する。中国は中央政府の力が強く、ルールを劇的に変えられる。ルールが採用された地方政府と企業は先行者利益を得る。工藤特任准教授は「日本で同じことができるとは思えないが、事例が具体的で参考になる」という。

国によって歩みは異なるものの、新技術のルール作りで実証的な手法が広がっている。同時に企業の開発コストは膨らむと見込まれる。学術界のELSI研究や大規模実証は社会実装のコストを抑える可能性がある。箔付けと揶揄されたELSIを産業競争力にできるか岐路にある。

日刊工業新聞 2024年10月08日
小寺貴之
小寺貴之 Kodera Takayuki 編集局科学技術部 記者
紙面では8日に掲載され、その夜に機械学習がノーベル物理学賞に選ばれました。ノーベル賞関連の記事はそれぞれの分野の研究は脇に置いてAIのインパクトとリスクを解説するものが多いです。AIのリスクは使い手に依存します。研究者が使うときのリスクと、社会で広く使われるときのリスクは整理して提供しないと意味がないように思います。社会で広く使われるときのリスクは実証ベースに移行しています。ELSIの先生にはこれまでも実証的にやってきたと怒られそうですが、もっと具体的に場も仮のルールも共有して試し試しでやっていくようになるはずです。現在のどこぞの国プロでは、法律面だけでもいくつも検討要素があって、この数を自分一人で検討しろと言うのかと先生が叫んでいたりします。ELSIチームが貧弱じゃないかと聞いて、変な規制を叫ばれるよりは全然いいと返ってきたこともあります。昔、ELSIチームがSF的なストーリーに流されて、規制の検討が必要だと主張されて、いろいろ面倒になったことがあるのだと思います。withフェイク時代はELSIは競争力になるはずです。メディアはフェイクにのまれました。マスコミはカネも影響力も危機感も持っていたけど、何年もかけていまがあります。AIやロボットサービスでも再現するのでしょうか。ELSIは日本が自分でやらなければ欧州から価値観とルールが認証システムやコンサルティングと一緒に入ってくることになると思います。 研究者がAIを使うリスクでは、巨大なモデルがブラックボックスのまま継承され、そのパラメーターがブラックボックスのまま実質的な基準のようになってしまうことが挙げられています。GPT-4でLLMの能力を測る例はわかりやすいです。例えば温暖化対策の導入効果をAIモデルで評価する際、そのAIは温暖化現象はよく再現したけど、対策効果は測れるのか。対策のデータは学習してないはずだけど、正解はないからと暫定的に使い続けているうちに、とりあえずそのモデルで評価しとかないと論文が通らなくなる。モデルに合わせて対策をチューニングするようになる。モデル開発者の掌の上で踊ってる気分になる、とかなんとか。これも高い意識は持ちつつ、具体的に場もルールも共有して試し試しでやっていくしかないと思います。

編集部のおすすめ