
要約
本稿では、人間のパース(部位分割)とポーズ推定を統合的に処理するための新規な相互学習適応モデル(MuLA: Mutual Learning to Adapt)を提案する。このモデルは、両タスク間の相互利益を効果的に活用し、同時に両者の性能を向上させる。既存の後処理手法やマルチタスク学習に基づくアプローチとは異なり、MuLAは並列的に実行されるタスク間から得られるガイダンス情報を反復的に活用することで、動的なタスク固有のモデルパラメータを予測する。これにより、MuLAは、互いのタスクからの情報を統合することで、パースモデルおよびポーズモデルを迅速に適応させ、より強力な表現能力を獲得し、より堅牢で高精度な結果を実現する。MuLAは畳み込みニューラルネットワーク(CNN)に基づき、エンドツーエンドで学習可能な構造を採用している。LIPおよび拡張PASCAL-Person-Partというベンチマークデータセットを用いた包括的な実験により、提案するMuLAモデルが既存の代表的なベースラインに対して優れた性能を発揮することを実証した。