8日前

ロボットビジョンとマルチビュー統合:支援生活シナリオにおける行動および活動認識

{Farshid Amirabdollahian, Catherine Menon, Patrick Holthaus, Mohamad Reza Shahabian Alashti, Mohammad Hossein Bamorovat Abadi}
要約

人間とロボットの相互作用(Human-Robot Interaction, HRI)の重要性は、人間中心の環境におけるロボットの統合が進むにつれてますます顕著になっている。効果的なHRIにおいて重要な要素の一つが、人間活動認識(Human Activity Recognition, HAR)である。HARは、特にアームバント・アシステッド・ラーニング(Ambient Assisted Living, AAL)環境において、ロボットが人間の存在に適切に反応できるようにする上で不可欠な技術である。しかし、ロボットは一般的に移動可能であり、運動やノイズの影響により視覚的認識能力が損なわれがちである。本研究では、ロボットの移動視点と静的視点を統合し、多視点深層学習モデルを用いて、こうした課題を克服する手法の有効性を評価する。特に、ロボット用途向けの視覚ベースHAR精度を向上させるために、二重ストリーム型の3次元畳み込み(Convolutional 3D, C3D)モデルを提案する。本研究では、ロボット視点に加え、前方、後方、上面の3つの静的視点を含む「Robot House Multiview(RHM)」データセットを用い、提案モデルの有効性を検証し、二重ストリームConvNetおよびSlow-Fastモデルと比較を行った。本研究の主な目的は、二重ストリームモデルを用いてロボットの視点と静的視点を統合することで、ロボット視点の認識精度を向上させることである。評価指標としてTop-1精度およびTop-5精度を用いた。その結果、静的視点とロボット視点の統合により、すべての検証モデルにおいてTop-1およびTop-5精度の両面でHAR精度が顕著に向上することが明らかになった。さらに、提案する二重ストリームC3Dモデルは、比較対象の他の先進モデルと比較しても、優れた性能を示した。

ロボットビジョンとマルチビュー統合:支援生活シナリオにおける行動および活動認識 | 最新論文 | HyperAI超神経