HyperAIHyperAI

Command Palette

Search for a command to run...

Fehlklassifikationsrate - Natürliche adversäre Beispiele

Fehlklassifikationsrate – Natürliche feindliche Beispiele bezieht sich auf den Anteil der Modellvorhersagen, die unter Bedingungen natürlicher feindlicher Beispiele nicht mit den wahren Klassen übereinstimmen. Diese Aufgabe dient der Bewertung der Robustheit und Generalisierungsfähigkeit des Modells bei der Konfrontation mit feindlichen Eingaben ohne künstliche Intervention. Dies hat großen Wert für die Verbesserung der Zuverlässigkeit und Sicherheit des Modells in realen Anwendungsszenarien.

Keine Daten
Keine Benchmark-Daten für diese Aufgabe verfügbar
Fehlklassifikationsrate - Natürliche adversäre Beispiele | SOTA | HyperAI