Gruppenäquivariante Faltungsnetze

Wir stellen Gruppenequivariante Faltungsneuronale Netze (G-CNNs) vor, eine natürliche Verallgemeinerung von Faltungsneuronalen Netzen, die durch Ausnutzung von Symmetrien die Anzahl der benötigten Trainingsbeispiele reduziert. G-CNNs verwenden G-Faltungen, eine neue Art von Schicht, die einen erheblich höheren Grad an Gewichtsteilung aufweist als herkömmliche Faltungsschichten. G-Faltungen erhöhen die Ausdrucksfähigkeit des Netzes ohne die Anzahl der Parameter zu erhöhen. Gruppenfaltungsschichten sind einfach zu handhaben und können mit vernachlässigbarem Rechenaufwand für diskrete Gruppen implementiert werden, die durch Translationen, Spiegelungen und Rotationen erzeugt werden. G-CNNs erreichen Stand-of-the-Art-Ergebnisse auf CIFAR10 und rotierter MNIST.