End-to-End-Training eines zweistufigen neuronalen Netzwerks für die Defekterkennung

Segmentierungsbasierte, zweistufige neuronale Netzwerke haben hervorragende Ergebnisse bei der Oberflächenfehlererkennung erzielt und ermöglichen es dem Netzwerk, bereits mit einer relativ geringen Anzahl an Trainingsbeispielen zu lernen. In dieser Arbeit stellen wir ein end-to-end-Trainingsverfahren für das zweistufige Netzwerk vor, ergänzt um mehrere Erweiterungen des Trainingsprozesses, welche die Trainingszeit reduzieren und die Leistung bei Aufgaben der Oberflächenfehlererkennung verbessern. Um ein end-to-end-Training zu ermöglichen, balancieren wir sorgfältig die Beiträge der Segmentierungs- und Klassifikationsverlustfunktion während des Lernprozesses aus. Wir regulieren den Gradientenfluss von der Klassifikation in das Segmentierungsnetzwerk, um instabile Merkmale zu verhindern, die das Lernen beeinträchtigen könnten. Als zusätzliche Erweiterung des Lernprozesses schlagen wir ein Frequenz-basiertes Sampling-Verfahren für negative Beispiele vor, um das Problem der Über- und Unterrepräsentation von Bildern während des Trainings zu adressieren. Zudem wenden wir den Distanztransformationsalgorithmus auf die regionenbasierten Segmentierungs-Masken an, um diese als Gewichte für positive Pixel zu nutzen und somit Bereichen mit höherer Wahrscheinlichkeit für einen Fehler besondere Bedeutung zu verleihen – ohne dass detaillierte Annotationen erforderlich sind. Wir demonstrieren die Leistungsfähigkeit des end-to-end-Trainingsansatzes und der vorgeschlagenen Erweiterungen an drei Datensätzen zur Fehlererkennung – DAGM, KolektorSDD und Severstal Steel Defect Dataset – wobei wir state-of-the-art-Ergebnisse erzielen. Auf den Datensätzen DAGM und KolektorSDD erreichen wir eine Detektionsrate von 100 %, wodurch diese Datensätze vollständig gelöst werden. Eine zusätzliche Ablationsstudie, durchgeführt auf allen drei Datensätzen, quantifiziert die Beiträge jeder einzelnen vorgeschlagenen Erweiterung zur Gesamtleistungssteigerung.