ロボットの兵器活用、規制に署名した唯一の日本人

広瀬ハイボットCEOに聞く「過去は工学的な道徳を議論していた」

 ロボット技術を兵器として利用したいわゆる「キラーロボット」の危険性が指摘される。米テスラのイーロン・マスク最高経営責任者(CEO)や理論物理学のスティーブン・ホーキング博士ら1000人以上が、キラーロボットの開発の規制などを求める書簡をインターネット上に公開した。日本からは唯一名を連ねたハイボットの広瀬茂男CEO(東京工業大学名誉教授)に詳細を聞いた。

 ―連名に至ったいきさつは。
 「ロボット倫理の研究者とのつながりで『日本から誰もサインしていない』と連絡があり、署名することになった。ロボットを巡る状況では、ロボットと組み合わせて使われる人工知能(AI)の進化が著しい。AIについては専門家ではないが考えるところがあり、このままでは大きな問題が起こるのではないか、歯止めが必要ではないかと考えた」

「衝突回避など自動車の先進安全技術が実用化されている。これらの技術にはAIが使われることが多い。悪用すれば自律的に走行して人にぶつかることもできる。テロや犯罪に悪用されるということだ。技術は10年前と比べ大きく進化している。どういった規制が必要かなど議論の必要がある」

 ―日本でロボットの開発は盛んですが、署名は1人だけでした。
 「日本でもAI関連の学会があるので、そうしたところが世界の議論にコンタクトしていけば良いと思っている。AIやロボットを活用する企業も多いので、声を上げていけばいい。今回の公開書簡は日本ではあまり周知されていなかったのかも知れない」

 ―ロボットやAIビジネスの中で、こうしたテーマをどう扱いますか。
 「ベンチャー企業のハイボットはヘビ型ロボットなどインフラの点検で使う、縁の下の力持ちといったロボットを扱っている。まず人に役立つことを優先し、人の行けない場所など人から離れたところで活躍するロボットなので、兵器に使われる、危害を与えるといった懸念とは縁遠いかもしれない」

 「研究者として振り返ると、過去は工学的な道徳を議論していた。アイザック・アシモフの『ロボット3原則』は前提が違うのでは、といったものだ。だが、いまのハイボットとは対象が違う」

 ―世界的には軍事と最先端研究との関係は近いところにあります。懸念はありますか。
 「ゲリラの輸送に日本メーカーのピックアップトラックが使われることもある。大変難しい問題だ。平和的に使うと良いことがある、という提案しかできない」

 「東工大では地雷処理ロボットを研究したが、国立大学で研究するテーマかどうか懸念する人もいた。紛争後の人道的なテーマだと説明した。だが、戦場で使うと武器になりかねない。どんな技術でも兵器使用や悪用の可能性はある。知的で便利な機械はロボットだけでなく増えていく。負の側面を議論することは必要だろう」
広瀬茂男氏

(聞き手=石橋弘彰)

日刊工業新聞2017年9月1日

石橋 弘彰

石橋 弘彰
09月03日
この記事のファシリテーター

アルフレッド・ノーベルがノーベル賞を創設した経緯でも分かるように、便利な発明や技術は軍事利用されたり犯罪に使われたりする危険をはらむ。便利であればあるほど人に危害を与える効果も大きくなる。AIの進化は速く著しい。世界中の研究開発の関係者が懸念するように、数十年先に起こりうる問題でも、まず議論していくことが重要だ。

この記事にコメントする

  

ファシリテーター紹介

記者・ファシリテーターへのメッセージ

この記事に関するご意見、ご感想
情報などをお寄せください。