17日前

異常検出のためのMean-Shifted Contrastive Loss

Tal Reiss, Yedid Hoshen
異常検出のためのMean-Shifted Contrastive Loss
要約

深層異常検出手法は、正常画像と異常画像を分離する表現を学習する。近年、自己教師付き表現学習が広く用いられているが、データセットサイズが小さい場合、その効果は制限される。これまでの研究で、外部の汎用データセット(例:ImageNet分類データセット)を活用することで、異常検出性能が著しく向上することが示されている。一方、外れ値暴露(outlier exposure)というアプローチは、外部データセットが異常パターンと類似していない場合には失敗する。本研究では、外部データセットで事前学習された表現を異常検出に転移するアプローチを採用する。正常画像のみを用いた微調整(fine-tuning)により、事前学習表現の性能を大幅に向上させることができる。本論文では、まず対照学習(contrastive learning)——最も一般的な自己教師付き学習枠組み——が事前学習された特徴に対して単純に適用できないことを実証し、分析する。その理由は、事前学習による特徴初期化が標準的な対照的目的関数に対して不良な条件付けを引き起こし、最適化の動的挙動が劣化するためである。本研究の分析に基づき、改良された対照的損失関数である「平均シフト対照損失(Mean-Shifted Contrastive Loss)」を提案する。本手法は非常に有効であり、CIFAR-10データセットにおいて98.6%のROC-AUCを達成し、異常検出分野における新たな最良性能を記録した。

異常検出のためのMean-Shifted Contrastive Loss | 最新論文 | HyperAI超神経