Unüberwachtes Lernen mit vortrainierten CNN und assoziativer Speicherbank

Tiefe Faltungsmerkmale, die aus einem umfassenden annotierten Datensatz extrahiert wurden, enthalten erhebliche Repräsentationen, die effektiv in einem neuen Bereich eingesetzt werden können. Obwohl generische Merkmale in vielen visuellen Aufgaben gute Ergebnisse erzielt haben, ist eine Feinabstimmung für vortrainierte tiefere CNN-Modelle erforderlich, um ihre Effektivität zu steigern und den Stand der Technik zu erreichen. Die Feinabstimmung unter Verwendung des Backpropagation-Algorithmus in einem überwachten Szenario ist ein zeitaufwendiger und ressourcenintensiver Prozess. In dieser Arbeit stellen wir eine neue Architektur und einen Ansatz für unüberwachte Objekterkennung vor, der das oben genannte Problem der Feinabstimmung bei vortrainierten CNN-basierten überwachten Deep-Learning-Ansätzen löst und gleichzeitig eine automatische Merkmalsextraktion ermöglicht. Im Gegensatz zu bestehenden Arbeiten ist unser Ansatz auf allgemeine Objekterkennungsaufgaben anwendbar. Er verwendet ein vortrainiertes (auf einem verwandten Bereich) CNN-Modell zur automatischen Merkmalsextraktion, das mit einem Hopfield-Netzwerk basierenden assoziativen Speicher verbunden ist, um Muster für Klassifizierungszwecke zu speichern. Die Verwendung eines assoziativen Speichers in unserem Framework ermöglicht es, den Backpropagation-Algorithmus zu eliminieren, während gleichzeitig wettbewerbsfähige Leistungen auf unbekannten Datensätzen erzielt werden.