Command Palette
Search for a command to run...
Datengiftung
Data Poisoning ist eine feindliche Angriffsmethode, die das Manipulieren des Trainingsdatensatzes beinhaltet, um das Vorhersageverhalten des trainierten Modells zu beeinflussen. Dabei wird das Modell dazu gebracht, bösartige Stichproben falsch zu klassifizieren und so das von dem Angreifer gewünschte Ziel zu erreichen. Dieser Art von Angriff stellt eine ernsthafte Bedrohung für die Sicherheit und Zuverlässigkeit von maschinellen Lernsystemen dar, und die Erforschung seiner Mechanismen kann helfen, die Verteidigungsfähigkeiten des Modells zu verbessern.