Natürliche adversarische Objekte

Obwohl state-of-the-art-Methoden zur Objekterkennung beeindruckende Leistung erzielen, sind Modelle häufig anfällig für adversarielle Angriffe und Daten außerhalb der Trainingsverteilung. Wir stellen ein neues Datenset, Natural Adversarial Objects (NAO), vor, um die Robustheit von Objekterkennungsmodellen zu evaluieren. NAO enthält 7.934 Bilder und 9.943 Objekte, die unverändert und repräsentativ für reale Szenarien sind, jedoch state-of-the-art-Erkennungsmodelle dazu bringen, mit hoher Konfidenz falsch zu klassifizieren. Die mittlere Genauigkeit (mean average precision, mAP) von EfficientDet-D7 sinkt um 74,5 %, wenn das Modell auf NAO gegenüber dem Standard-MSCOCO-Validierungssatz evaluiert wird.Darüber hinaus zeigen Vergleiche verschiedener Objekterkennungsarchitekturen, dass eine bessere Leistung auf dem MSCOCO-Validierungssatz nicht zwangsläufig zu einer besseren Leistung auf NAO führt. Dies deutet darauf hin, dass Robustheit nicht einfach durch die Verbesserung der Genauigkeit eines Modells erreicht werden kann.Wir untersuchen weiterhin, warum Beispiele aus NAO schwer zu erkennen und zu klassifizieren sind. Experimente mit dem Austausch von Bildpatches zeigen, dass Modelle übermäßig empfindlich auf lokale Texturen reagieren. Zudem ergeben Analysen mittels integrierter Gradienten und Hintergrundersetzung, dass die Erkennungsalgorithmen stark auf Pixelinformationen innerhalb des Bounding Boxes angewiesen sind und beim Vorhersagen von Klassenbezeichnungen wenig auf den Hintergrundkontext achten.Das Datenset NAO ist unter folgender URL verfügbar: https://drive.google.com/drive/folders/15P8sOWoJku6SSEiHLEts86ORfytGezi8.