「人工知能を語り尽くそう!」儲かる?倫理は?説明責任が発生?(前編)
元Google・村上、東大・松尾、ドワンゴ・山川、IGPI・塩野、Preferred ・西川による刺激的な討論会
人が納得するパラメーターは誰が作るのか。根本的な倫理に立ち返るべき
山川 人間の脳は、少なくとも意識している範囲では、ほぼ同時には1つのことしかできないように感じているわけだが、実際には、見えていない部分も認識したり、意識しないで並列にやっている部分も非常に多い。ただ、ディープラーニングの話と関連するが、脳の中では1つの印象を持つという回路があって、猫というものならば脳の中では基本的に1つの形で表現される。だから今、そこに猫がいて白い猫であっても昔見た猫であっても、猫ということ自体は1回に1個しか使えない。人間の脳には基本的にそのままコピーできないという制約があるが、そこら辺はAIのほうが圧倒的に、並列性があるものをつくれる。
また、神経科学とか認知科学とかではよく出てくる話だが、何かやろうと思うよりも前に、動かそうとするシグナルが出ていることが分かっている。少なくとも我々が気がつくよりも前に、脳の中では活動が起きている。脳はとにかくつじつまが合うように説明することを後づけする性質を基本的に持っている。
松尾 そのことと、交通とか、製造の現場において、人間に分からないぐらい効率化したものを、いかに説明するかは関連している気がする。例えば、自動運転で事故が起こったとき、何が作用しているか、人が分かるように説明するのはすごく必要だと思う。
山川 そもそも脳の中で電極を刺してもどの層で何をやっているかわからないので、諦めざるを得ない部分はある。ただ、それを分かるように説明するという努力は人間も行っている。人間に分かるようなストーリーとかシナリオをつくることが非常に大事になっている。これは脳の中を可視化するだけではなくて、いろいろなシーンにおいて今後、現れてくると思う。
自動操縦の事故のときに誰が責任をとるのか。説明する技術の進化も必要
松尾 説明できるかどうかということは、例えば自動操縦の事故のときに誰が責任をとるのか?それが社会的に許容されるのか?といったこととかなり関係がある。人工知能のシステムが社会の中でたくさん使われていくには、そこの技術も進んでいかないといけない。法的な観点などから見てどうか。
塩野 人工知能が生活に入ってくると、既存の法制度で今まで定性的に人間が納得していたものに、定量的にパラメーター設定されていくことは考えられる。パラメーターは誰が決めるのか、法律の条文に見える化されたパラメーターがどんどん入るのか、といった問題も出てくる。そこでは人間の根本的な倫理に立ち返らないといけないとは思う。人間が全く理解できないけれども、人工知能によってめちゃくちゃ予測精度が高いブラックボックスができる可能性は非常に高い。人工知能自体には何かをするための目的が存在しているので、その目的について、何らか法制度というのは出てくると思っている。
話は違うが、遺伝子治療の広告の規制といった場合にも、法制度よりもっと上位概念の倫理的な話は出てくるはず。(村上さんの基調講演で)Google Carの話も出たが、もうカリフォルニアを走っているので、国際ルールをつくることになるはず。日本としてルールをつくる際どうするかは大きいテーマだ。
ロボットに自意識を仕込んだらターミネーターリスクが生まれる
松尾 制度面では米国がつくるルールを日本が取り入れるのがよくあるパターン。日本はどうやっていけばいいだろうか。
村上 ドローン騒ぎで分かるように、日本は先回りした心配が先立つ。どこかに特区をつくり「そこでは新しいものをやっていいことにしよう」というのは、基本的に禁止ということ。これを逆転しないと。原則として許可だけれども、「皇居のあたりと霞が関のあたりだけは当面遠慮してね」という禁止特区でいかないとダメなのに、日本は許可特区という方向に行く。国が岩盤規制を何とかすると言っても、発想が全部禁止の方向にいくところから払拭すべきだ。
あと次の議論は、松尾先生の分野だが、生物の目的意識とか、存在本能といった自意識を、ロボットに形成していくのがいいのか悪いのか、ということも考えたい。説明させようとすると、人間の場合は、手が勝手に動いたときに後で俺が動かしたと思う。自分が思ったから手が動いた幻想としてエピソードとして記憶する。そうするようにロボットに仕込んだら、結果として「僕って何?」と思い始めてしまうターミネーターリスクが生まれるのでは。
松尾 自分自身であるという感覚とか、自己同一性は社会の中で適切に行動し、コミュニケーションしていくために備わっているものなのかもしれない。ロボットも人間と協調作業していくには、そういう主体があって考えている、という形にしたほうが、人間とコミュニケーションしやすいのではないか。
説明責任の問題から逃れるために産業用に入っていった
西川 実はその問題から一旦逃れようかとも思っている。10年くらいずっと自然言語処理や、データ解析から人の感情を理解することをやってきて説明しきれない部分も多い。一方で、インダストリアルIoTに目を向けると、機械だけで動いている世界であり、生産性が全てなので、結果が出てしまえば説明は何も要らない。なので、あえてそっちの方向にまずはフォーカスしている。
自動運転も、安全性の議論はあるが我々がやっているのは制御。制御システムの部分に人工知能が入っていくのはまだ先になると思っている。人にぶつかってしまったときに、責任はなかなかとれない。人工知能を使っていくのは、鉱山のマイニングといった閉じた環境での自動運転の制御から始まるのではないか。そういう過酷な環境などで、人が介在せず全てオートメーション化するのは非常にメリットが高い。
山川 制御することは、社会的に説明しなければいけないケースにつながることがあり、責任と結構絡んでくる。それは責任を負う主体が生存することと関係していて、生存することは自律することと関係している。そして自律することは制御することと関係している。結局、説明は巡り巡って制御につながっている。自律させると危ないといった議論はもちろんあるが、便利な反面リスクも増えるといった全体的な矛盾感を整理しなければならない。
松尾 そうなると制御をやった瞬間説明が発生するから、そこは「やらない」というのも1つの方法だとは思う。
(後編は7月10日公開予定)
日刊工業新聞社とモノづくり日本会議は6月17日に日刊工業新聞社創刊100周年記念シンポジウム「見えてきた近未来のスマートコミュニティ×ロボット~人工知能やIoTでコミュニケーション、コミュニティが変わる!~」の中で、5名の方によるパネルディスカッションを開きました。