
要約
異常検出に向けた再構成ベースのアプローチは、クラス間分散が非常に大きいターゲットクラスを有する複雑なデータセットに適用される際、その性能が十分に発揮されない傾向がある。トランスファーラーニングにおける自己学習(self-taught learning)の概念と同様に、多くの分野において類似したラベルなしデータセットが豊富に存在しており、これらを分布外サンプル(out-of-distribution samples)の代用として活用することが可能である。本論文では、類似ドメインからのラベルなしデータを負例(negative examples)として用いることで、通常のオートエンコーダーの潜在層(ボトルネック)を、特定のタスクにのみ再構成可能な形に制約する「潜在不感性オートエンコーダー(Latent-Insensitive autoencoder, LIS-AE)」を提案する。本研究では、提案手法の学習プロセスおよび損失関数に対する理論的根拠を提示するとともに、モデルの重要な構成要素を明らかにするための包括的なアブレーションスタディを実施している。さらに、複数の異常検出設定において本モデルを評価し、定量的および定性的な分析を通じて、異常検出タスクにおける著しい性能向上を示している。