Command Palette
Search for a command to run...
Backdoor-Angriff
Backdoor-Angriffe beziehen sich auf die bösartige Injektion von Daten in Trainingsdatensätze, wodurch das trainierte Modell Eingaben mit Backdoor-Triggern während des Testens fälschlicherweise als Zielklasse klassifiziert. Das Ziel solcher Angriffe ist es, die Vorhersageergebnisse des Modells heimlich zu manipulieren. Dies hat erhebliche Forschungswerte und praktische Implikationen, insbesondere im Bereich der Computer Vision, wo es helfen kann, die Sicherheit und Robustheit von Modellen zu bewerten und zu verbessern.