Hilft die unüberwachte Architekturrepräsentationslern (Unsupervised Architecture Representation Learning) der neuronalen Architektursuche (Neural Architecture Search)?

Bestehende Methoden des Neural Architecture Search (NAS) verwenden entweder diskrete Kodierungen für neuronale Architekturen, die sich schlecht skalieren, oder setzen auf überwachtes Lernen basierende Ansätze, um Architekturrepräsentationen gemeinsam mit der Architektursuche auf diesen Repräsentationen zu optimieren – was jedoch Suchverzerrungen verursacht. Trotz ihrer weiten Verbreitung sind die in NAS gelernten Architekturrepräsentationen nach wie vor nur unzureichend verstanden. Wir beobachten, dass die strukturellen Eigenschaften neuronaler Architekturen schwer in dem latente Raum erhalten bleiben, wenn die Lernung der Architekturrepräsentation und die Suche eng gekoppelt sind, was zu einer geringeren Sucheffizienz führt. In dieser Arbeit stellen wir empirisch fest, dass das Vortrainieren von Architekturrepräsentationen ausschließlich anhand von neuronalen Architekturen – ohne Verwendung von Genauigkeitswerten als Labels – die Effizienz der nachfolgenden Architektursuche erheblich verbessert. Um diese Beobachtungen zu erklären, visualisieren wir, wie das unüberwachte Lernen von Architekturrepräsentationen die Clusterung von neuronalen Architekturen mit ähnlichen Verbindungen und Operatoren stärker fördert. Dies ermöglicht es, Architekturen mit ähnlicher Leistung in denselben Regionen des latenten Raums zu platzieren und sorgt für eine relativ glatte Transition zwischen Architekturen im latente Raum, was insbesondere verschiedenen nachfolgenden Suchstrategien erhebliche Vorteile bringt.