HyperAIHyperAI

Command Palette

Search for a command to run...

ロボットビジョンとマルチビュー統合:支援生活シナリオにおける行動および活動認識

Farshid Amirabdollahian Catherine Menon Patrick Holthaus Mohamad Reza Shahabian Alashti Mohammad Hossein Bamorovat Abadi

概要

人間とロボットの相互作用(Human-Robot Interaction, HRI)の重要性は、人間中心の環境におけるロボットの統合が進むにつれてますます顕著になっている。効果的なHRIにおいて重要な要素の一つが、人間活動認識(Human Activity Recognition, HAR)である。HARは、特にアームバント・アシステッド・ラーニング(Ambient Assisted Living, AAL)環境において、ロボットが人間の存在に適切に反応できるようにする上で不可欠な技術である。しかし、ロボットは一般的に移動可能であり、運動やノイズの影響により視覚的認識能力が損なわれがちである。本研究では、ロボットの移動視点と静的視点を統合し、多視点深層学習モデルを用いて、こうした課題を克服する手法の有効性を評価する。特に、ロボット用途向けの視覚ベースHAR精度を向上させるために、二重ストリーム型の3次元畳み込み(Convolutional 3D, C3D)モデルを提案する。本研究では、ロボット視点に加え、前方、後方、上面の3つの静的視点を含む「Robot House Multiview(RHM)」データセットを用い、提案モデルの有効性を検証し、二重ストリームConvNetおよびSlow-Fastモデルと比較を行った。本研究の主な目的は、二重ストリームモデルを用いてロボットの視点と静的視点を統合することで、ロボット視点の認識精度を向上させることである。評価指標としてTop-1精度およびTop-5精度を用いた。その結果、静的視点とロボット視点の統合により、すべての検証モデルにおいてTop-1およびTop-5精度の両面でHAR精度が顕著に向上することが明らかになった。さらに、提案する二重ストリームC3Dモデルは、比較対象の他の先進モデルと比較しても、優れた性能を示した。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
ロボットビジョンとマルチビュー統合:支援生活シナリオにおける行動および活動認識 | 記事 | HyperAI超神経