
要約
本稿では、任意の身体ポーズ、体型および衣装を持つ人物の画像間で衣装を転送するためのフレームワーク「SwapNet」を提案する。衣装転送は、(i) 衣装の特徴を身体のポーズや体型から分離すること、および (ii) 新しい身体にリアルな衣装テクスチャを再現することを要する困難なタスクである。我々は、これらのサブ問題に対処するため、タスク固有の2つのサブネットワークを備えたニューラルネットワークアーキテクチャを提示する。同一衣装を異なる身体に着せた画像ペアを収集することは困難であるため、単一の画像からデータ拡張を用いてトレーニングペアを生成する新しい弱教師付きアプローチを提案する。本研究は、3D再構成問題を解くことなく、制約のない画像における衣装転送を完全に自動化する初めての手法である。多様な転送結果を提示し、従来の画像間変換およびアナロジー処理パイプラインと比較して、本手法の優位性を強調する。