
隠蔽された人物の再識別(ReID)は、背景ノイズが増加し、前景情報が不完全なため、困難な課題である。既存の人体パーシングに基づくReID手法は、ピクセルレベルでの意味的アライメントによりこの問題に対処できるものの、その性能は人体パーシングモデルの精度に大きく依存している。多くの教師あり手法は、ドメイン間の人体部位アノテーションを用いて、ReIDモデルとは別に追加の人体パーシングモデルを学習するが、これには高コストなアノテーション作業とドメインギャップの問題が伴う。一方、教師なし手法はReIDモデル内に特徴クラスタリングに基づく人体パーシングプロセスを統合するが、教師信号の欠如により、満足のいくセグメンテーション結果を得られない。本論文では、ReID学習データセットに既に存在する情報が、追加のアノテーションを一切不要として、人体パーシングモデルの学習に直接教師信号として利用可能であると主張する。我々は、弱教師あり人体コパーシングネットワークをReIDネットワークに統合し、同一歩行者の異なる画像間で共有される情報を活用する新たなフレームワーク、すなわち「人体コパーシングガイド付きアライメント(HCGA)フレームワーク」を提案する。具体的には、人体コパーシングネットワークは、グローバルな意味、局所的な空間構造、および背景に関する三つの一貫性基準によって弱教師あり学習が行われる。その後、人物ReIDネットワークから得られる意味情報と深層特徴をガイドアライメントモジュールに入力することで、前景および人体部位の特徴を効果的に抽出し、隠蔽された人物の再識別を実現する。2つの隠蔽データセットおよび2つの包括的データセットにおける実験結果から、本手法の優位性が示された。特に、Occluded-DukeMTMCデータセットにおいて、70.2%のRank-1精度および57.5%のmAPを達成した。