Gegensätzliche Beispiele verbessern die Bilderkennung

Adversariale Beispiele werden üblicherweise als Bedrohung für ConvNets angesehen. Hier präsentieren wir eine entgegengesetzte Perspektive: Wenn adversariale Beispiele auf die richtige Weise genutzt werden, können sie zur Verbesserung von Bilderkennungsmodellen beitragen. Wir schlagen AdvProp vor, ein verbessertes adversariales Trainingsverfahren, das adversariale Beispiele als zusätzliche Trainingsbeispiele behandelt, um Überanpassung zu vermeiden. Der Schlüssel unserer Methode liegt in der Verwendung eines separaten, zusätzlichen Batch-Normalisierungs-Moduls für adversariale Beispiele, da diese eine andere zugrundeliegende Verteilung aufweisen als normale Beispiele.Wir zeigen, dass AdvProp eine Vielzahl von Modellen auf verschiedenen Aufgaben der Bilderkennung verbessert und besonders bei größeren Modellen eine bessere Leistung erzielt. Beispielsweise erreichen wir mit der Anwendung von AdvProp auf das neueste EfficientNet-B7-Modell auf ImageNet signifikante Verbesserungen: +0,7 % auf ImageNet, +6,5 % auf ImageNet-C, +7,0 % auf ImageNet-A und +4,8 % auf Stylized-ImageNet. Mit einem verbesserten EfficientNet-B8 erreichen wir eine state-of-the-art-Top-1-Accuracy von 85,5 % auf ImageNet, ohne zusätzliche Daten zu benötigen. Dieses Ergebnis übertrifft sogar das beste Modell aus [20], das mit 3,5 Milliarden Instagram-Bildern (ca. 3000-fach mehr als ImageNet) und etwa 9,4-fach mehr Parametern trainiert wurde. Die Modelle sind unter https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet verfügbar.