17日前

AnomalyCLIP:ゼロショット異常検出のためのオブジェクトに依存しないプロンプト学習

Qihang Zhou, Guansong Pang, Yu Tian, Shibo He, Jiming Chen
AnomalyCLIP:ゼロショット異常検出のためのオブジェクトに依存しないプロンプト学習
要約

ゼロショット異常検出(ZSAD)は、ターゲットデータセットに一切の訓練サンプルが存在しない状況下で、補助データを用いて訓練された検出モデルが異常を検出することを要求する。これは、データプライバシーなどの理由により訓練データが利用できない場合に極めて重要な課題であるが、前景オブジェクト、異常領域、背景特徴(たとえば、異なる製品や臓器における欠陥や腫瘍)の外見が大きく異なる異なるドメインにおいて、モデルが異常を一般化する必要があるため、困難な課題である。近年、CLIPをはじめとする大規模な事前学習済み視覚言語モデル(VLM)は、異常検出を含む多様な視覚タスクにおいて強力なゼロショット認識能力を示している。しかし、これらのVLMは画像内の前景オブジェクトのクラス意味を重視する傾向が強く、画像内の「異常性/正常性」を適切に捉える能力に欠けるため、ZSAD性能は依然として弱い。本論文では、異なるドメインにおいて正確なZSADを実現するための新しいアプローチ、すなわちAnomalyCLIPを提案する。AnomalyCLIPの核心的な洞察は、前景オブジェクトに依存しないオブジェクト無差別なテキストプロンプトを学習し、画像における一般的な「正常性」と「異常性」を捉えることである。これにより、モデルはオブジェクトの意味ではなく、異常な画像領域に注目でき、多様な種類のオブジェクトに対して一般化された正常性および異常性の認識が可能となる。17の実世界の異常検出データセットを用いた大規模な実験により、AnomalyCLIPが、さまざまな欠陥検査および医療画像分野におけるクラス意味が極めて多様なデータセットにおいて、優れたゼロショット異常検出およびセグメンテーション性能を達成することが示された。コードは https://github.com/zqhang/AnomalyCLIP にて公開される予定である。

AnomalyCLIP:ゼロショット異常検出のためのオブジェクトに依存しないプロンプト学習 | 最新論文 | HyperAI超神経