
ロボット操作における効率的かつ堅牢なグリップポーズ検出は極めて重要である。一般的な6自由度グリッピングにおいて、従来の手法はシーン内のすべての点を同等に扱い、通常は均一なサンプリングによりグリップ候補を選定する。しかし、本研究では、どこにグリップすべきかという情報を無視することで、現在のグリップポーズ検出手法の速度および精度が著しく低下することを発見した。本論文では、雑多なシーンにおける把持可能な領域を区別するための幾何学的ヒントに基づく「グリップネス(graspness)」という指標を提案する。グリップネスの評価のために、先行探索(look-ahead)に基づく測定手法を提案し、統計的な結果により本手法の妥当性を裏付けた。実用的な高速なグリップネス検出を実現するため、探索プロセスを近似するための深層ニューラルネットワーク「カスケードグリップネスモデル(Cascaded Graspness Model)」を開発した。広範な実験により、本グリップネスモデルの安定性、汎用性および有効性が検証され、さまざまな手法に即插即用(plug-and-play)モジュールとして利用可能であることが示された。既存の複数の手法に本モデルを組み込むことで、精度の顕著な向上が確認された。さらに、低品質な予測を初期段階でフィルタリングするため、本グリップネスモデルを統合したエンドツーエンドネットワーク「GSNet」を構築した。大規模ベンチマークGraspNet-1Billionにおける実験結果から、本手法は従来手法を大きく上回り(APで30ポイント以上)、高い推論速度を達成した。GSNetのライブラリは、https://github.com/graspnet/anygrasp_sdk にて公開されているAnyGraspに統合されている。