HyperAIHyperAI

Command Palette

Search for a command to run...

Backdoor-Angriff

Backdoor-Angriffe beziehen sich auf die bösartige Injektion von Daten in Trainingsdatensätze, wodurch das trainierte Modell Eingaben mit Backdoor-Triggern während des Testens fälschlicherweise als Zielklasse klassifiziert. Das Ziel solcher Angriffe ist es, die Vorhersageergebnisse des Modells heimlich zu manipulieren. Dies hat erhebliche Forschungswerte und praktische Implikationen, insbesondere im Bereich der Computer Vision, wo es helfen kann, die Sicherheit und Robustheit von Modellen zu bewerten und zu verbessern.

Keine Daten
Keine Benchmark-Daten für diese Aufgabe verfügbar
Backdoor-Angriff | SOTA | HyperAI