
要約
私たちは、データ内の特定のノイズや感度の高い変動要因に不変である表現を学習し、可能な限り残りの情報を保持する問題を調査しています。私たちのモデルは、感度の高い変動要因と潜在的な変動要因との独立性を促進する事前分布を持つ変分自己符号化器(Variational Autoencoding)アーキテクチャに基づいています。その後の処理、例えば分類などは、この不要な情報が除去された潜在表現に対して行われることができます。残りの依存関係を完全に除去するために、「最大平均分散」(Maximum Mean Discrepancy: MMD)測定に基づく追加の罰則項を導入しています。これらのアーキテクチャがデータ上で効率的に訓練できる方法について議論し、実験を通じてこの手法が以前の研究よりも不要な変動要因を除去しつつ情報量豊富な潜在表現を維持することにおいて有効であることを示しています。