人工知能は人類の脅威か?「研究倫理守り“育てる”責務がある」(坂村健)
電源が切れない事態に人間が追い込まれる確率。過度に恐れるような事態でない
訓練次第で人間的衝動も
一方、人間が利用するために知能を開発するなら、それは人間型でないと役に立たないという考えもある。また、優秀な知能を作る過程で進化論的プログラミングを利用する可能性は高く、その過程で「問題解決欲求」を持たすなら「問題解決を続けるために、自分を生かし続ける必要がある」と問題解決し二次的な自己保存欲求を持つ可能性もある。
グーグルの画像理解のニューラルネットは顔を目的にトレーニングした結果として、どんな模様にも「目」を見いだしたがるようになった。壁のシミや雲にまで顔を見いだす人間の認識回路と同じ衝動が生まれたわけだ。人間の目的のためにニューラルネットを訓練すれば、結果的に人間的衝動が生まれないとは言い切れない。
そして、最後に脅威になった時にも、電源が切れない事態に人間が追い込まれるのはどの程度の確率かという疑問もある。それらの脅威の確率を正確に数値化はできないが、少なくとも「できる、近年、脅威、止められない」の確率を掛けあわせれば、だいぶ低いだろう。警鐘を鳴らすこと自体を否定しないが、過度に恐れるような事態でもない。
【将来のための議論始めよ】
それよりむしろ、今から考えておくべきは、ある程度以上の人工知能―学習して成長できる知能を実験室で実現できたとき、それを単なる実験として「撤収」していいかという問題だ。産んでしまった知能を止めることは許されるか。生命科学研究の分野では「人間に育ちうる」という理由で、実験用受精卵使い捨ての倫理問題が議論されてきた。今までそういう問題に無関心でいられたコンピューター研究の分野だが、研究倫理の議論をはじめなければいけない段階に来ているのではないか。
「情けは他人(ひと)のためならず」とも言う。研究段階で我々が倫理を守ること―人工知能を倫理の枠の中で育てたことが、いつか生まれる「強い人工知能」の基盤となり―彼らの倫理に身を委ねることになる人類自身を救うのかもしれないのだから。
坂村健(さかむら・けん)1979年(昭54)慶大院工学研究科博士課程修了、同年東大助手、96年教授、00年から東大院情報学環教授。工学博士。84年TRONプロジェクトリーダー、01年YRPユビキタス・ネットワーキング研究所所長。東京都出身、63歳。
※日刊工業新聞は毎週月曜日に「卓見異見」を連載中