HyperAIHyperAI
vor 17 Tagen

Spot-the-Difference Self-Supervised Pre-training für Anomalieerkennung und Segmentierung

Yang Zou, Jongheon Jeong, Latha Pemula, Dongqing Zhang, Onkar Dabeer
Spot-the-Difference Self-Supervised Pre-training für Anomalieerkennung und Segmentierung
Abstract

Die visuelle Anomalieerkennung wird häufig in der industriellen Qualitätsprüfung eingesetzt. In diesem Artikel präsentieren wir ein neues Datenset sowie eine neue selbstüberwachte Lernmethode für die ImageNet-Vortrainierung, um die Anomalieerkennung und -segmentierung in 1-Klassen- und 2-Klassen-Szenarien bei 5-, 10- und Hoch-Shot-Trainingsaufbauten zu verbessern. Wir veröffentlichen das Visual Anomaly (VisA)-Datenset, das aus 10.821 hochauflösenden Farbbildern (9.621 normale und 1.200 anormale Proben) besteht und 12 Objekte in drei Domänen abdeckt, wodurch es bislang das umfangreichste Datenset für die industrielle Anomalieerkennung darstellt. Sowohl bilddaten- als auch pixelgenaue Labels werden bereitgestellt. Zudem schlagen wir einen neuen selbstüberwachten Rahmen – SPot-the-difference (SPD) – vor, der die kontrastive selbstüberwachte Vortrainierung, wie beispielsweise SimSiam, MoCo und SimCLR, regularisieren kann, um sie besser für Aufgaben der Anomalieerkennung geeignet zu machen. Unsere Experimente auf dem VisA- und dem MVTec-AD-Datenset zeigen, dass SPD diese kontrastiven Vortrainierungsansätze konsistent verbessert und sogar über die überwachte Vortrainierung hinausgeht. Beispielsweise steigert SPD die Fläche unter der Precision-Recall-Kurve (AU-PR) für die Anomalie-Segmentierung um 5,9 % gegenüber SimSiam und um 6,8 % gegenüber der überwachten Vortrainierung im 2-Klassen-Hoch-Shot-Szenario. Wir stellen das Projekt unter http://github.com/amazon-research/spot-diff als Open Source zur Verfügung.