HyperAIHyperAI
vor 16 Tagen

Anomalieerkennung durch umgekehrte Distillation aus Ein-Klassen-Embeddings

Hanqiu Deng, Xingyu Li
Anomalieerkennung durch umgekehrte Distillation aus Ein-Klassen-Embeddings
Abstract

Wissensdistillation (KD) erzielt vielversprechende Ergebnisse beim anspruchsvollen Problem der unsupervised Anomalieerkennung (AD). Der Darstellungsdiskrepanz von Anomalien im Lehrer-Schüler-(T-S)-Modell wird entscheidende Bedeutung für die AD zugeschrieben. In früheren Studien wird jedoch häufig eine ähnliche oder identische Architektur für Lehrer- und Schülermodell verwendet, was die Vielfalt der anomalen Darstellungen einschränkt. Um dieses Problem anzugehen, schlagen wir ein neuartiges T-S-Modell vor, das aus einem Lehrer-Encoder und einem Schüler-Decoder besteht, und führen entsprechend eine einfache, aber effektive „umgekehrte Distillation“-Paradigma ein. Anstatt rohe Bilder direkt zu erhalten, nimmt das Schülernetzwerk die einklassige Einbettung des Lehrermodells als Eingabe und zielt darauf ab, die mehrskaligen Darstellungen des Lehrers wiederherzustellen. Inherently beginnt die Wissensdistillation in dieser Studie mit abstrakten, hochwertigen Darstellungen und geht dann zu niedrigstufigen Merkmalen über. Zudem führen wir eine trainierbare einklassige Engpass-Einbettung (OCBE)-Modul in unserem T-S-Modell ein. Die resultierende kompakte Einbettung bewahrt effektiv wesentliche Informationen über normale Muster, verdrängt jedoch Anomalie-Störungen. Umfassende Experimente auf AD- und einklassigen Neuheitserkennungs-Benchmarks zeigen, dass unsere Methode die state-of-the-art (SOTA)-Leistung übertrifft und die Wirksamkeit und Verallgemeinerungsfähigkeit unseres vorgeschlagenen Ansatzes belegt.

Anomalieerkennung durch umgekehrte Distillation aus Ein-Klassen-Embeddings | Neueste Forschungsarbeiten | HyperAI