Command Palette
Search for a command to run...
Erklärbare tiefe Few-shot-Anomalieerkennung mit Abweichungsnetzwerken
Erklärbare tiefe Few-shot-Anomalieerkennung mit Abweichungsnetzwerken
Guansong Pang Choubo Ding Chunhua Shen Anton van den Hengel
Zusammenfassung
Bestehende Anomalieerkennungsparadigmen konzentrieren sich überwiegend auf die Ausbildung von Erkennungsmodellen ausschließlich anhand normaler Daten oder unbeschrifteter Daten (vorwiegend normale Beispiele). Ein bekanntes Problem dieser Ansätze ist ihre geringe Fähigkeit, Anomalien von normalen Beispielen zu unterscheiden, was auf das Fehlen von Wissen über Anomalien zurückzuführen ist. In diesem Beitrag untersuchen wir das Problem der Few-Shot-Anomalieerkennung, bei dem wir darauf abzielen, mit wenigen beschrifteten Anomaliebeispielen stichproben-effiziente, differenzierende Erkennungsmodelle zu trainieren. Um dieses Problem anzugehen, stellen wir einen neuartigen schwach überwachten Anomalieerkennungsansatz vor, der Erkennungsmodelle trainiert, ohne die Annahme zu erfordern, dass alle möglichen Anomalieklassen durch Beispiele veranschaulicht werden.Konkret lernt der vorgeschlagene Ansatz diskriminative Normalität (Regelmäßigkeit) durch Nutzung der beschrifteten Anomalien sowie einer a priori-Wahrscheinlichkeitsverteilung, um ausdrucksstarke Darstellungen der Normalität und unbeschränkte, abweichende Darstellungen der Anomalität zu fördern. Dies wird durch eine end-to-end-Optimierung der Anomalie-Scores mittels neuronaler Abweichungslernens erreicht, bei der die Anomalie-Scores normaler Beispiele dazu gezwungen werden, skalarwertige Scores zu approximieren, die aus der a priori-Verteilung stammen, während die Scores der Anomaliebeispiele statistisch signifikante Abweichungen von diesen Stichprobenwerten im oberen Schwanz der Verteilung aufweisen müssen. Darüber hinaus wird unser Modell so optimiert, dass es feinabgestimmte Normalität und Anomalität durch eine top-K, mehrinstanzbasierte Lernmethode zur Abweichung in Merkmalsunterräumen erlernt, was allgemeinere Darstellungen ermöglicht. Umfassende Experimente auf neun realen Bildanomalieerkennungsbenchmarks zeigen, dass unser Modell erheblich stichproben-effizienter und robuster ist und sowohl in geschlossenen als auch in offenen Szenarien signifikant besser abschneidet als aktuelle State-of-the-Art-Verfahren. Zudem verfügt unser Modell über eine Erklärbarkeitsfähigkeit, die sich aus dem prior-getriebenen Lernen der Anomalie-Scores ergibt. Der Quellcode und die Datensätze sind unter folgender URL verfügbar: https://git.io/DevNet.