Aufmerksamkeitsmodule verbessern die Bildebene-Anomalieerkennung für industrielle Inspektionen: Eine DifferNet-Fallstudie

In der (semi-)automatisierten visuellen industriellen Inspektion ermöglichen lernbasierte Ansätze zur Bewertung visueller Defekte, einschließlich tiefer neuronaler Netze, die Verarbeitung sonst sehr kleiner Defektmuster im Pixelmaßstab auf hochauflösenden Bilddaten. Die Entstehung dieser oft selten auftretenden Defektmuster erklärt den allgemeinen Bedarf an annotierten Datensammlungen. Um dieses Problem zu mildern und den aktuellen Stand der Technik im Bereich der überwachungsfreien visuellen Inspektion voranzutreiben, wird in dieser Arbeit eine auf DifferNet basierende Lösung vorgeschlagen, die durch Aufmerksamkeitsmodule erweitert wurde: AttentDifferNet. Das Modell verbessert die Fähigkeiten zur Bild-Level-Detektion und -Klassifikation an drei Datensätzen für die visuelle Anomalieerkennung im industriellen Kontext: InsPLAD-fault, MVTec AD und Semiconductor Wafer. Im Vergleich zum Stand der Technik erzielt AttentDifferNet verbesserte Ergebnisse, die in unserer qualitativen und quantitativen Studie eindeutig hervorgehoben werden. Unsere quantitative Evaluation zeigt im Vergleich zu DifferNet eine durchschnittliche Verbesserung von 1,77 ± 0,25 Prozentpunkten im Gesamtausmaß der AUROC-Werte über alle drei Datensätze hinweg und erreicht damit SOTA-Ergebnisse auf InsPLAD-fault, einem industriellen Inspektionsdatensatz aus realen Umgebungen (in-the-wild). Da unsere Varianten von AttentDifferNet großes Potenzial im Kontext aktuell untersuchter Ansätze zeigen, wird eine Basislinie formuliert, die die Bedeutung von Aufmerksamkeitsmechanismen sowohl für die industrielle Anomalieerkennung in natürlichen als auch in kontrollierten Umgebungen unterstreicht.