ニュースイッチ

掴んで、すぐ次の作業ができる!ロボットビジョンの新技術「機能認識」の効果とは

「見えているけど掴めない――」。このような「Pick and Placeタスク(把持して移載)」は古典的な課題とされながらも、ロボット工学における悩ましい課題であり続けた。2010年代以降は3Dビジョンセンサや機械学習などの適用で解決されつつあり、ロボットの利用拡大につながっている。ただし今後、非産業分野でのロボットの普及につなげるためには、次なる課題への対応が求められる。すなわち、把持したモノを道具として利用する「Pick and Operationタスク」であり、中京大学の橋本学教授らが提案する「機能認識」は、これを可能にする技術として注目されている。

【セミナー情報】 9/19(火)開催!AI/ロボット/3次元物体認識技術の基礎と実際、現場への展開手法 ~AIとロボットビジョンで達成する生産・物流イノベーション~

機能認識とは、その名の通り、道具となる対象物の機能を認識する手法である。あらゆる道具には形状に基づく機能を備えており、例えばスプーンにはモノをすくう「Scoop」と把持する「Grasp」を備える。ロボットがスプーンを操作する際、「Grasp」を認識して把持すれば、そのまま「Scoop」によりモノをすくう作業へと移行できる。
 一般物体認識では対象物の位置姿勢を認識するのみであり、必ずしもGraspを把持するわけではない。多くは、把持しやすい個所を掴むようプログラム(動作教示)されているため、モノをすくう作業に移行できない。掴み直すといった不要なタスクの実行が求められる。これに対し、機能認識では、どこを把持してどこですくえばよいかをロボットに提示するため、Pick and Operationタスクが可能となる。

対象物の機能を認識する手法には、深層学習(CNN)や機械学習(Random Forest)を適用した。これらにより対象物の局所形状に「Scoop」や「Grasp」など機能ラベルを付与・識別し、ラベル情報をもとに機能認識を行う。日用品を中心に機能属性アノテーションデータセットとして公開(http://isl.sist.chukyo-u.ac.jp/archives/nedopro/)されており、その活用により機能認識が行える。
 機能情報の利用により、これにもとづく最適な把持位置の決定や動作パラメータの生成などが可能となるが、産業界から注目されているのが、人が教示した動作のロボットへの転移学習である。
例えば、工場での組立作業ではリンクやコンロッドなど同一カテゴリの部品でありながらも様々な異形・異サイズがある。形状が似た部品であっても、ロボットによる把持操作では、それぞれに把持位置を定義するなど動作教示の手間がかかる。しかし、これらの部品には組立作業において、把持位置(把持領域)と、その部品を他の部品に接触など作用させる位置(作用領域)の2つの位置情報があり、機能認識で把持領域と作用領域を認識して2つの位置情報を対応づければ、教示前の部品に転移することで動作教示が行える。同一カテゴリ部品にかかる動作教示の負担が大幅に軽減されることになり、産業界からの実用化への期待が大きい。

日刊工業新聞社は9月19日(火)に、このような機能認識の特徴と現場への適用法を解説するセミナーを開催する。橋本教授がWorld Robot Summit(WRS)に参加した際に採用した認識アルゴリズムなど実務で使える技術情報を併せて紹介する。

*なお、機能認識にかかる研究は、新エネルギー・産業技術総合機構(NEDO)委託事業「次世代人工知能・ロボット中核技術開発/次世代人工知能技術分野/人間と相互理解できる次世代人工知能技術の研究開発」(2015~2019年実施)の一環として、中京大学が産業技術総合研究所・人工知能研究センターからの再委託を受けて実施した。

【セミナー情報】
9/19(火)開催!
AI/ロボット/3次元物体認識技術の基礎と実際、現場への展開手法
~AIとロボットビジョンで達成する生産・物流イノベーション~
詳細はこちら→https://corp.nikkan.co.jp/seminars/view/5058
ニュースイッチオリジナル

編集部のおすすめ