【動画あり】視覚情報で力加減を伝達!三菱電機のロボット遠隔操作技術がスゴい!
三菱電機はディスプレーからの視覚情報によって指先の力加減などをフィードバックしロボットを遠隔操作する技術を開発した。対象物をつかむといった力触覚を視覚で疑似的に伝達し、装置に組み込むアクチュエーターを最小限に抑える。メンテナンス性の向上、操縦者の肉体的負担の軽減などが期待できる。ロボットメーカーやインフラ事業者などと連携し、インフラ点検現場や災害現場などでの実用化を目指す。
拡張現実(AR)ゴーグルを使ってロボットを遠隔操作するにあたり、ゴーグルのディスプレーに表示される情報を独自に加工する。ロボットのハンドが対象物をつかんだ時に、圧力がかかった指の部位を赤色などで表示することで、力触覚を表現する。視覚を通じて力触覚を再現する「ビジュアル・ハプティクス技術」を、ロボット研究分野で提案するのは珍しいという。
現在、手にグローブを装着して腕や指などを動かし、直感的にロボットを操作する研究開発が進んでいる。実現にあたっては、ロボットが対象物をつかんだ時の力触覚を、アクチュエーターなどを使って操縦者にフィードバックする必要がある。ただ、人間は力触覚を認識する際、周囲の視覚情報も多く取り込んだ上で、総合的に判断しているという。
特に医療用の遠隔操作ロボットでは、予測を含めた直感的な操作性が求められる。三菱電機先端技術総合研究所の春名正樹氏は「予測をサポートする映像表現に注力した方が、システムとしてシンプルになる」と指摘する。
今後は、圧力の大きさの違いを異なる色で表現するなどの機能改善を進める。指だけでなく、腕の感覚もフィードバックできるようにして、実用性を高める方針だ。
日刊工業新聞2020年12月9日