
要約
長きにわたり、異常検出における教師なし学習は画像処理研究の中心的なテーマであり、高精度な産業自動化プロセスの基盤ともなってきた。畳み込みニューラルネットワーク(CNN)の登場に伴い、オートエンコーダー、GAN、深層特徴抽出など、多数の手法が提案されてきた。本論文では、知識蒸留(knowledge distillation)という有望な概念に基づく新たな手法を提案する。この手法は、正規サンプル上で学習を行う小規模なネットワーク(学生ネットワーク)を、事前に学習済みの大規模ネットワーク(教師ネットワーク)の出力を用いて訓練するものである。本研究の主な貢献は二つある。第一に、最適な層選択に基づく簡略化された学生ネットワークアーキテクチャの提案であり、第二に、二つの教師ネットワークを組み合わせてネットワークバイアスを低減する新しい学生-教師アーキテクチャの提案である。これにより、異常検出性能と異常部位の局所化精度を同時に向上させることを実現した。提案手法は、あらゆるテクスチャにおける欠陥検出に優れた能力を有しており、既存の最先端(SOTA)手法と比較して高速な推論時間を実現している。