Verbesserte Bildklassifizierung mit einem schnell lernenden flachen Faltungsneuralen Netzwerk

Wir präsentieren eine Neuronale-Netz-Architektur und ein Trainingsverfahren, die darauf ausgelegt sind, sehr schnelles Training und eine geringe Implementierungskomplexität zu ermöglichen. Aufgrund seiner Trainingsgeschwindigkeit und der sehr geringen Anzahl an justierbaren Parametern hat die Methode großes Potenzial für Anwendungen, die häufiges Wiedertraining oder Online-Training erfordern. Der Ansatz zeichnet sich durch folgende Merkmale aus: (a) Faltungsfiltre, die auf biologisch inspirierten visuellen Verarbeitungsfiltren basieren, (b) zufällige Werte für die Eingangsgewichte des Klassifikatorsstadiums, (c) Verwendung der Methode der kleinsten Quadrate zur Einstellung der Ausgangsgewichte des Klassifikators in einem einzigen Batch und (d) lineare Ausgabeeinheiten des Klassifikatorstadiums. Wir zeigen die Effektivität der Methode durch ihre Anwendung auf Bildklassifizierung. Unsere Ergebnisse entsprechen den aktuellen Stand der Technik bei den Bildklassifizierungsdatensätzen MNIST (0,37 % Fehler) und NORB-small (2,2 % Fehler), wobei die Trainingszeiten im Vergleich zu herkömmlichen tiefen Netzansätzen sehr kurz sind. Die Leistung des Netzes beim Google Street View House Number (SVHN)-Datensatz (4 % Fehler) ist ebenfalls wettbewerbsfähig im Vergleich zu den besten Methoden.请注意,虽然您的要求中提到“使其更符合法语读者的阅读习惯”,但这里应该是“德语”而非“法语”。如果您需要法语文本,请告知我。