HyperAIHyperAI

Command Palette

Search for a command to run...

Xception: Tiefes Lernen mit tiefen trennbaren Faltungen

François Chollet

Zusammenfassung

Wir präsentieren eine Interpretation von Inception-Modulen in Faltungsneuronalen Netzen als einen Zwischenschritt zwischen regulärer Faltung und der tiefenweise separierbaren Faltungsoperation (eine tiefenweise Faltung gefolgt von einer punktweisen Faltung). Aus dieser Perspektive kann eine tiefenweise separierbare Faltung als ein Inception-Modul mit maximaler Anzahl an Türmen verstanden werden. Diese Beobachtung führt uns zu einem neuen, von Inception inspirierten Architekturkonzept für tiefe Faltungsneuronale Netze, bei dem die Inception-Module durch tiefenweise separierbare Faltungen ersetzt wurden. Wir zeigen, dass diese Architektur, die Xception genannt wurde, den Inception V3 leicht übertrifft, wenn es um das ImageNet-Datensatz (für den der Inception V3 entwickelt wurde) geht, und den Inception V3 erheblich übertrifft auf einem größeren Datensatz für Bildklassifikation, der 350 Millionen Bilder und 17.000 Klassen umfasst. Da die Xception-Architektur dieselbe Anzahl an Parametern wie der Inception V3 hat, sind die Leistungsverbesserungen nicht auf eine erhöhte Kapazität zurückzuführen, sondern vielmehr auf eine effizientere Nutzung der Modellparameter.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp