透明カップや光沢袋をカメラ1台で把持——東京理科大が把持成功率96%の手法を開発

FabScene(ファブシーン)

透明な容器や光沢のある袋は、ロボットによる自動把持が難しかった。深度センサや一般的な3次元計測では光の反射や透過の影響を受けて不安定になり、最終的に人の手が必要な工程として残りがちだった。

東京理科大学 創域理工学部の荒井翔悟准教授と同大学院のケニス銀河氏(2025年度修士課程修了)の研究グループは、こうした課題を解決する把持技術「HEAPGrasp」を開発した。論文は2026年1月12日付で国際学術誌「IEEE Robotics and Automation Letters」に掲載され、成果はロボティクス分野のトップカンファレンス「ICRA 2026」でも発表される予定だ。

HEAPGraspの核心は、深度情報に依存しないことだ。RGBカメラで撮影した画像からセマンティックセグメンテーション(画素ごとの物体認識)で対象物の輪郭を取り出し、複数視点の輪郭情報から物体の3次元形状を推定する「Shape from Silhouette」と組み合わせる。光を通したり反射したりする素材でも輪郭は安定して捉えられるという発想だ。

複数視点の撮影はそれ自体が課題で、カメラを動かす時間がタクトタイムを圧迫する。HEAPGraspは3次元計測の精度向上とカメラ移動距離の短縮を同時に最適化するコスト関数を導入し、この問題に対応した。

実機ロボットによる検証(シーン数20、各シーンに5物体)では、透明・光沢・不透明の混在環境で把持成功率96.0%を達成した。従来手法と比較するとカメラの移動距離を52%削減し、ハンドリング全体の実行時間も19%短縮している。従来手法「VGN」は不透明物体で88.5%だったが光沢物体で72.0%・透明物体で53.8%まで落ちていたのに対して、HEAPGraspはすべてのカテゴリーで92.6%以上を維持した。

荒井准教授は、「事前調整を削減した設計により、既存設備への後付けや多品種対応が容易になる」と述べており、段取り換えが多い現場への導入のしやすさも設計に組み込まれている。

関連情報

fabsceneの更新情報はXで配信中です

この記事の感想・意見をSNSで共有しよう
  • URLをコピーしました!
目次