HyperAIHyperAI
vor 2 Monaten

Xception: Tiefes Lernen mit tiefen trennbaren Faltungen

François Chollet
Xception: Tiefes Lernen mit tiefen trennbaren Faltungen
Abstract

Wir präsentieren eine Interpretation von Inception-Modulen in Faltungsneuronalen Netzen als einen Zwischenschritt zwischen regulärer Faltung und der tiefenweise separierbaren Faltungsoperation (eine tiefenweise Faltung gefolgt von einer punktweisen Faltung). Aus dieser Perspektive kann eine tiefenweise separierbare Faltung als ein Inception-Modul mit maximaler Anzahl an Türmen verstanden werden. Diese Beobachtung führt uns zu einem neuen, von Inception inspirierten Architekturkonzept für tiefe Faltungsneuronale Netze, bei dem die Inception-Module durch tiefenweise separierbare Faltungen ersetzt wurden. Wir zeigen, dass diese Architektur, die Xception genannt wurde, den Inception V3 leicht übertrifft, wenn es um das ImageNet-Datensatz (für den der Inception V3 entwickelt wurde) geht, und den Inception V3 erheblich übertrifft auf einem größeren Datensatz für Bildklassifikation, der 350 Millionen Bilder und 17.000 Klassen umfasst. Da die Xception-Architektur dieselbe Anzahl an Parametern wie der Inception V3 hat, sind die Leistungsverbesserungen nicht auf eine erhöhte Kapazität zurückzuführen, sondern vielmehr auf eine effizientere Nutzung der Modellparameter.

Xception: Tiefes Lernen mit tiefen trennbaren Faltungen | Neueste Forschungsarbeiten | HyperAI