アウトライア(exposure)の暴露:少数、1枚、あるいは0枚のアウトライア画像から何が学べるか

正常なデータとは異なる外れ値をすべて特徴づけることの困難さから、従来の異常検出(Anomaly Detection, AD)は、正常なサンプルのみを用いて無監督学習として扱われてきました。しかし近年、ランダムな画像の大規模コーパスを異常性の表現に活用することで、無監督画像ADの性能が著しく向上することが明らかになりました。この手法は「Outlier Exposure(異常暴露)」と呼ばれます。本論文では、最先端の性能を達成するためには専用のAD学習手法が必ずしも必要ではなく、わずかなOutlier Exposureデータの集合だけで強力な性能が得られることを示します。これはAD分野における一般的な仮定と矛盾する結果です。さらに、標準的な分類器や半教師あり一クラス手法を、正常サンプルと少数のランダムな自然画像の区別を学習させることで、ImageNetを用いた既存のADベンチマークにおいて、現在の最先端性能を上回ることが可能であることを実証しました。追加の実験により、このベンチマーク上で、適切に選ばれた1つの異常サンプルさえも、十分な性能(AUC 79.3%)を達成できることを明らかにしました。本現象を調査した結果、一クラス手法は訓練用の異常サンプルの選定に対してよりロバストであることが判明し、特定の状況下では標準的な分類器よりも依然として有用であることが示唆されました。さらに、本結果が成り立つ状況を明確に示す実験も併せて行いました。最後に、CLIPという最近の基礎モデル(foundation model)が学習した表現を用いる場合、訓練用サンプルは一切不要であり、CIFAR-10およびImageNetにおいてゼロショット(zero-shot)設定で最先端のAD性能を達成できることを示しました。