社会学の視点から考える、AIとの共存・発展のカギ
JDLA公共政策委員長(東京大学特任講師)・江間有沙氏
人工知能(AI)による技術革新が社会にどう影響するのか、世界的に注目されている。東京大学政策ビジョン研究センターの江間有沙特任講師は、科学技術社会論(STS)を専門にAIと社会の関わり方の議論の場づくりに取り組んできた。日本ディープラーニング協会(JDLA)の理事兼公共政策委員長に就任し、今後、産業界へ活動を広げる。AIとの共存社会に向けて必要なことを聞いた。
-JDLAで産業界との連携した活動が期待されます。今後のポイントを教えてください。
「さまざまな人を巻き込んだ議論の場をつくることで、産業利用への障害を取り除くだけでなく、『そもそもの枠組み』を疑っていく。というのも、例えば、海外で『baby』を画像検索すると白人系の画像が多い。このような現実社会の偏りを反映したデータを使ってAIを学習させると、気づかないうちに偏りを増幅させ、技術が社会に出た時に予想外の批判を浴びる原因にもなりうる。このため、babyの画像の偏りは批判を受け、訂正されつつある」
-技術者の考えるべきことは増えますね。
「AIは技術だけで考えられないが、技術者の本業は技術開発だ。特にベンチャー企業は人員が少なく、全てには手が回らない。その分、JDLAでの議論を通じ、各社の課題や国際連携に関する意見の集約、情報発信などを行いたい。さまざまな機関の出すガイドラインや重要な報告書を共有する仕組みも必要になる」
-多様な意見の出る議論が求められます。
「新しい技術や挑戦的なものには、社会に出る前に『安心して炎上できる場』が必要だと思う。経済合理性以外の観点もある。技術者は萎縮するのではなく、多様な意見から無意識の偏りがないかなど、気づくことが大事な体験になる。私は技術者ではないが、技術の近くにいて、可能性もリスクも考えられる場にしたい」
-具体的な問題は出てきていますか。
「ブラジルで開催された『人工知能と包摂』についてのシンポジウムで、現地研究者らから二つの興味深い事例を聞いた。一つ目の事例は、地図アプリを使って最短経路を検索した観光客が、治安の悪い地域を知らずに通り、『不幸なことが起きた』という。もう一つの事例は、ある町は今では観光客を呼べる状況に回復したにもかかわらず、今でも画像検索すると約10年前に起きた大虐殺の画像しか出てこない」
-情報の更新や追加で解決できませんか。
「地元住民が治安や画像の『正しい』情報を追加できるように、データ収集会社がデータ更新機能などを開発する方法は考えられるが、それは根本的な解決になるだろうか。例えば、偽情報でないかを誰が判断するのか。治安の悪さは誰が判断し、どんな頻度で更新するのか。その情報が残ると、地元住民の不利益にならないか。また、正しくない情報が出ていることに気づく手段さえ持たない人や地域もある。技術だけでは解決できない。社会や経済から疎外されていた人々も取り込む『包摂(インクルージョン)』は重要なテーマになる」
-今世界で、AIの社会実装に伴う課題についての議論は、どう進んでいますか。
「2016年ごろから色々な場所で議論され、問題点が出そろってきた。今後、教育や政治、裁判などの分野別やシステム別に、さまざまな規模感で、AI技術者と各分野の専門家が話をしていく必要がある。その間を橋渡しできる人材も増えていってほしい」
-AIと共存する社会をどうイメージしていますか。
「AIは未来のものと考えられがちだが、すでに私たちはAIの萌芽となる情報技術の恩恵を受けている。共存社会であることを前提にして考える必要がある。未来のターミネーターよりも、気づかないうちに入ってくる技術の方が怖い。特定の人が有利になっていないか、データを違う用途に使っていないかを気にするべきだと思う」
-予想される社会影響の中で、仕事や雇用は大きな問題です。
「短期的には作業単位でAIやロボットに置き換わる。どこまで機械にするかは価値の選択だ。人から説明を聞いて商品を買いたい人も、簡単にインターネットで買いたい人もいる。どの顧客層をターゲットにするか次第で、どこまで機械に任せるか決まる。一方、雇用が奪われる懸念に対し、対策を個人に任せるだけではいけない。再教育の場を用意し、セカンドチャンスのある社会になることが必要ではないか」
-AIは技術進展の途上にあります。
「技術進展のスピードが速いため、利用のルールなどを固定できない。また、人の検知技術が自動運転や兵器、マーケティングに応用できるように、状況次第で使われ方が変わる技術は、どこまで許容されるかといった判断が難しい。だが、今、何が正しいかわからなくても、決めなければならないことはある。走りながら考え、再考する仕組みが求められる」
〈そもそもの枠組み〉を疑う
-JDLAで産業界との連携した活動が期待されます。今後のポイントを教えてください。
「さまざまな人を巻き込んだ議論の場をつくることで、産業利用への障害を取り除くだけでなく、『そもそもの枠組み』を疑っていく。というのも、例えば、海外で『baby』を画像検索すると白人系の画像が多い。このような現実社会の偏りを反映したデータを使ってAIを学習させると、気づかないうちに偏りを増幅させ、技術が社会に出た時に予想外の批判を浴びる原因にもなりうる。このため、babyの画像の偏りは批判を受け、訂正されつつある」
-技術者の考えるべきことは増えますね。
「AIは技術だけで考えられないが、技術者の本業は技術開発だ。特にベンチャー企業は人員が少なく、全てには手が回らない。その分、JDLAでの議論を通じ、各社の課題や国際連携に関する意見の集約、情報発信などを行いたい。さまざまな機関の出すガイドラインや重要な報告書を共有する仕組みも必要になる」
-多様な意見の出る議論が求められます。
「新しい技術や挑戦的なものには、社会に出る前に『安心して炎上できる場』が必要だと思う。経済合理性以外の観点もある。技術者は萎縮するのではなく、多様な意見から無意識の偏りがないかなど、気づくことが大事な体験になる。私は技術者ではないが、技術の近くにいて、可能性もリスクも考えられる場にしたい」
技術だけでは解決できない
-具体的な問題は出てきていますか。
「ブラジルで開催された『人工知能と包摂』についてのシンポジウムで、現地研究者らから二つの興味深い事例を聞いた。一つ目の事例は、地図アプリを使って最短経路を検索した観光客が、治安の悪い地域を知らずに通り、『不幸なことが起きた』という。もう一つの事例は、ある町は今では観光客を呼べる状況に回復したにもかかわらず、今でも画像検索すると約10年前に起きた大虐殺の画像しか出てこない」
-情報の更新や追加で解決できませんか。
「地元住民が治安や画像の『正しい』情報を追加できるように、データ収集会社がデータ更新機能などを開発する方法は考えられるが、それは根本的な解決になるだろうか。例えば、偽情報でないかを誰が判断するのか。治安の悪さは誰が判断し、どんな頻度で更新するのか。その情報が残ると、地元住民の不利益にならないか。また、正しくない情報が出ていることに気づく手段さえ持たない人や地域もある。技術だけでは解決できない。社会や経済から疎外されていた人々も取り込む『包摂(インクルージョン)』は重要なテーマになる」
-今世界で、AIの社会実装に伴う課題についての議論は、どう進んでいますか。
「2016年ごろから色々な場所で議論され、問題点が出そろってきた。今後、教育や政治、裁判などの分野別やシステム別に、さまざまな規模感で、AI技術者と各分野の専門家が話をしていく必要がある。その間を橋渡しできる人材も増えていってほしい」
雇用奪われる脅威に社会的な対応も
-AIと共存する社会をどうイメージしていますか。
「AIは未来のものと考えられがちだが、すでに私たちはAIの萌芽となる情報技術の恩恵を受けている。共存社会であることを前提にして考える必要がある。未来のターミネーターよりも、気づかないうちに入ってくる技術の方が怖い。特定の人が有利になっていないか、データを違う用途に使っていないかを気にするべきだと思う」
-予想される社会影響の中で、仕事や雇用は大きな問題です。
「短期的には作業単位でAIやロボットに置き換わる。どこまで機械にするかは価値の選択だ。人から説明を聞いて商品を買いたい人も、簡単にインターネットで買いたい人もいる。どの顧客層をターゲットにするか次第で、どこまで機械に任せるか決まる。一方、雇用が奪われる懸念に対し、対策を個人に任せるだけではいけない。再教育の場を用意し、セカンドチャンスのある社会になることが必要ではないか」
-AIは技術進展の途上にあります。
「技術進展のスピードが速いため、利用のルールなどを固定できない。また、人の検知技術が自動運転や兵器、マーケティングに応用できるように、状況次第で使われ方が変わる技術は、どこまで許容されるかといった判断が難しい。だが、今、何が正しいかわからなくても、決めなければならないことはある。走りながら考え、再考する仕組みが求められる」
(2018年7月11日 ロボット面)