AIが現実世界として学習できるほどに進化したCGのリアル
認識用データ、大量・自在に
コンピューターグラフィックス(CG)技術の進化が人工知能(AI)やロボットの進化を促している。CGがリアルになり、AIが現実世界を認識するための学習データになるようになった。CGでさまざまな生活空間をシミュレーションすると生活支援ロボットの認識機能としても利用できる。サイバー(仮想世界)空間とフィジカル(現実世界)空間をつなぐ基盤技術になりそうだ。
物体認識
ソニー・インタラクティブエンタテインメント(SIE、東京都港区)は、部屋の家具などをリアルタイムに3次元(3D)認識する技術を開発した。カメラ画像から3Dデータを作る「ビジュアルSLAM」技術で対象物の形を計測しつつ、2D画像の物体認識を重ね合わせる。すると3Dでの物体認識が実現する。
例えば、部屋の家具を撮影すればいすやテーブルなどを識別し、3D形状を踏まえた演出が可能だ。仮想現実(VR)キャラクターが自宅のいすに腰掛けてくつろいだり、テーブルに手料理を並べたりできる。SIEグローバルR&D本部の堀川勉課長は「ホラーゲームなら、映画『リング』のように自分の家のテレビから貞子が出てくる」と説明する。
物体認識AIはCGで作った部屋の画像を学習することで実現した。部屋に家具を配置して照明や太陽光のさまざまな条件を数多くシミュレーションする。CGなら認識用の学習データを大量に自動生成できる。SIEの小野大地氏は「CGが現実と変わらなくなれば当然、現実世界の認識に使える」と説明する。
この技術はビジュアルデータを基にロボットを制御する技術と相性が良い。リコーは移動ロボットの開発に活用する。広角カメラの映像を学習させると、同じ風景を通るようにロボットが走る。開発者は教えたいルートを何度か走らせるだけで、移動ルートなどの動作計画は不要だ。リコーICT研究所システム研究センターの川口敦生所長は「軌道計画など従来技術はラボでは禁止しAIアプローチですべてやる」と決断した。
ロボ制御に活用
日立製作所と早稲田大学は、ロボットの手作業と移動の複合動作をカメラ映像などのデータから生成する。まず操縦者が双腕ロボットでドアを何度か開ける。ロボットのカメラ映像と腕などのモーター負荷などの制御データをディープラーニング(深層学習)にかける。するとドアに近づき、ドアノブをつかんで回し、扉を押して開き、通るという動作を自律的にできるようになる。単純な記録・再生ではなく、状況が変わっても対応できる。
日立研究開発グループの伊藤洋氏は「人間が着けたウエアラブルカメラの映像から動作を学習できるようにしたい」とする。カメラに写る人の手足をAI技術で認識して、ロボットのようにCGで上書きした画像データを作製したり、手足の動きからロボットのモーター負荷などの制御データを計算したりすることは難しくない。
また、製造業でも改善活動の分析用に集めた作業映像をCGで加工すれば大量の学習データがそろう。既存の動作計画技術や物理シミュレーション技術を使えば制御データも増幅できる。学習ベースで道具を使うロボが実現すると期待される。
(文=小寺貴之)
物体認識
ソニー・インタラクティブエンタテインメント(SIE、東京都港区)は、部屋の家具などをリアルタイムに3次元(3D)認識する技術を開発した。カメラ画像から3Dデータを作る「ビジュアルSLAM」技術で対象物の形を計測しつつ、2D画像の物体認識を重ね合わせる。すると3Dでの物体認識が実現する。
例えば、部屋の家具を撮影すればいすやテーブルなどを識別し、3D形状を踏まえた演出が可能だ。仮想現実(VR)キャラクターが自宅のいすに腰掛けてくつろいだり、テーブルに手料理を並べたりできる。SIEグローバルR&D本部の堀川勉課長は「ホラーゲームなら、映画『リング』のように自分の家のテレビから貞子が出てくる」と説明する。
物体認識AIはCGで作った部屋の画像を学習することで実現した。部屋に家具を配置して照明や太陽光のさまざまな条件を数多くシミュレーションする。CGなら認識用の学習データを大量に自動生成できる。SIEの小野大地氏は「CGが現実と変わらなくなれば当然、現実世界の認識に使える」と説明する。
この技術はビジュアルデータを基にロボットを制御する技術と相性が良い。リコーは移動ロボットの開発に活用する。広角カメラの映像を学習させると、同じ風景を通るようにロボットが走る。開発者は教えたいルートを何度か走らせるだけで、移動ルートなどの動作計画は不要だ。リコーICT研究所システム研究センターの川口敦生所長は「軌道計画など従来技術はラボでは禁止しAIアプローチですべてやる」と決断した。
ロボ制御に活用
日立製作所と早稲田大学は、ロボットの手作業と移動の複合動作をカメラ映像などのデータから生成する。まず操縦者が双腕ロボットでドアを何度か開ける。ロボットのカメラ映像と腕などのモーター負荷などの制御データをディープラーニング(深層学習)にかける。するとドアに近づき、ドアノブをつかんで回し、扉を押して開き、通るという動作を自律的にできるようになる。単純な記録・再生ではなく、状況が変わっても対応できる。
日立研究開発グループの伊藤洋氏は「人間が着けたウエアラブルカメラの映像から動作を学習できるようにしたい」とする。カメラに写る人の手足をAI技術で認識して、ロボットのようにCGで上書きした画像データを作製したり、手足の動きからロボットのモーター負荷などの制御データを計算したりすることは難しくない。
また、製造業でも改善活動の分析用に集めた作業映像をCGで加工すれば大量の学習データがそろう。既存の動作計画技術や物理シミュレーション技術を使えば制御データも増幅できる。学習ベースで道具を使うロボが実現すると期待される。
(文=小寺貴之)
日刊工業新聞2019年1月30日