19日前
手順的活動を遠隔教師付きで認識するための学習
Xudong Lin, Fabio Petroni, Gedas Bertasius, Marcus Rohrbach, Shih-Fu Chang, Lorenzo Torresani

要約
本稿では、数分間にわたる長時間の動画から、細粒度かつ多段階の活動(例えば、さまざまなレシピの調理、多様な家庭内リフォーム作業、さまざまな手工芸の制作など)を分類する問題に着目する。これらの活動を正確に分類するためには、タスクを構成する個々のステップを認識するだけでなく、それらのステップ間の時間的依存関係を捉える必要がある。この問題は、従来の行動分類と著しく異なる。従来の行動分類では、モデルは通常数秒程度の短い動画を対象としており、単純な原子的行動を含むように手動でトリミングされた動画で最適化される。ステップラベルの付与により、手順的活動の個々のステップを認識するモデルの学習が可能となるが、長時間動画における時間的境界を手動でラベルづけるコストが極めて高いため、現存する大規模データセットにはこのようなセグメントラベルが含まれていない。この課題に対処するために、多様な複雑な活動の実行に必要な詳細なステップ記述を含むテキスト知識ベース(wikiHow)の遠隔教師信号(distant supervision)を活用し、インストラクショナル動画からステップを自動的に同定する手法を提案する。本手法では、動画からノイズを含む自動音声認識(ASR)によって得られた音声を、知識ベース内のステップ記述と照合するために言語モデルを用いる。実験により、手動ラベルなしで自動ラベル付けされたステップを認識するように学習させた動画モデルが、4つの下流タスク(手順的活動認識、ステップ分類、ステップ予測、エゴセントリック動画分類)において優れた一般化性能を達成することが示された。