Lernen von steuerbaren Filtern für rotationsäquivariante CNNs

In vielen maschinellen Lernaufgaben ist es wünschenswert, dass die Vorhersage eines Modells unter Transformationen seiner Eingabe äquivariant transformiert. Faltungsneuronale Netze (CNNs) implementieren durch ihre Konstruktion translationsäquivariante Eigenschaften; für andere Transformationen sind sie jedoch gezwungen, die richtige Abbildung zu lernen. In dieser Arbeit entwickeln wir steuerbare Filter-CNNs (SFCNNs), die durch ihre Gestaltung eine gemeinsame Äquivarianz unter Translationen und Rotationen erreichen. Die vorgeschlagene Architektur verwendet steuerbare Filter, um effizient orientierungsabhängige Reaktionen für viele Orientierungen zu berechnen, ohne Interpolationsartefakte durch die Drehung der Filter aufzuweisen. Wir nutzen Gruppenfaltungen, die eine äquivariante Abbildung garantieren. Darüber hinaus verallgemeinern wir He's Gewichtinisierungsschema auf Filter, die als lineare Kombination eines Systems von atomaren Filtern definiert sind. Numerische Experimente zeigen eine erhebliche Verbesserung der Stichprobenkomplexität mit einer zunehmenden Anzahl von abgetasteten Filterorientierungen und bestätigen, dass das Netzwerk gelernte Muster über Orientierungen generalisiert. Der vorgeschlagene Ansatz erreicht den aktuellen Stand der Technik im rotierten MNIST-Benchmark und bei der ISBI 2012 2D EM Segmentierungsaufgabe.