Theoretisch fundierter Kompromiss zwischen Robustheit und Genauigkeit

Wir identifizieren einen Spannungsbogen zwischen Robustheit und Genauigkeit, der als Leitprinzip bei der Entwicklung von Verteidigungsmaßnahmen gegen feindselige Beispiele dient. Obwohl dieses Problem empirisch weitgehend untersucht wurde, bleibt viel über die zugrunde liegende Theorie unbekannt. In dieser Arbeit zerlegen wir den Vorhersagefehler für feindselige Beispiele (robuster Fehler) als die Summe des natürlichen (Klassifikations-) Fehlers und des Randfehlers und geben eine differenzierbare obere Schranke unter Verwendung der Theorie der klassifikationskalibrierten Verlustfunktion an, die sich als die engstmögliche obere Schranke über alle Wahrscheinlichkeitsverteilungen und messbaren Prädiktoren herausstellt. Inspiriert durch unsere theoretische Analyse haben wir auch eine neue Verteidigungsmethode, TRADES, entwickelt, um Robustheit gegen feindselige Angriffe gegen Genauigkeit abzuwägen. Unser vorgeschlagenes Algorithmus erweist sich experimentell in realen Datensätzen als leistungsfähig. Die Methodik bildet die Grundlage unseres Einreichungsbeispiels für den NeurIPS 2018 Adversarial Vision Challenge, bei dem wir aus etwa 2.000 Teilnehmern den ersten Platz belegten und den zweiten Platz um 11,41 % im Durchschnittlichen $\ell_2$-Störungsabstand übertroffen haben.请注意,虽然您的请求中提到“使其更符合法语读者的阅读习惯”,但您需要的是德语翻译。因此,我在翻译时遵循了德语的语法和表达习惯。如果您有任何其他需求,请随时告知。