
異常検出手法は高品質な特徴量を必要とする。近年、異常検出分野では、深層自己教師付き特徴学習の進展を活用してより優れた特徴量を獲得しようとする試みがなされている。しかし、事前学習された深層特徴量を用いるという非常に有望なアプローチは、ほとんど無視されてきた。本論文では、まず経験的に、おそらく予想されるがこれまで報告されていなかった結果を示す。すなわち、事前学習済み特徴量とシンプルな異常検出およびセグメンテーション手法を組み合わせることで、はるかに複雑な最先端手法を明確に上回る性能が得られることを実証する。異常検出の性能をさらに向上させるために、我々は事前学習された特徴量をターゲット分布に適応させる。多クラス分類問題においては転移学習手法は十分に確立されているが、一方で一クラス分類(OCC)設定における研究はまだ十分に進んでいない。実際、教師あり学習においては良好に機能する単純な適応手法は、OCC設定ではしばしば「崩壊(catastrophic collapse)」——すなわち特徴量の劣化——を引き起こし、性能を低下させることが判明した。代表的なOCC手法であるDeepSVDDは専用アーキテクチャの使用を提唱しているが、これにより適応による性能向上の余地が制限される。本研究では、このような崩壊を抑制するための2つの新規手法を提案する。第一に、停止イテレーションを動的に学習する早期停止の変種、第二に継続的学習(continual learning)に着想を得た弾性正則化(elastic regularization)である。提案手法PANDAは、OCC、アウトライアーオープゼ(outlier exposure)、異常セグメンテーションの各設定において、最先端手法を大幅に上回る性能を達成した。