HyperAIHyperAI

Command Palette

Search for a command to run...

Modellvergiftung

Model Poisoning bezieht sich auf die Handlung eines Angreifers, bei der bösartige Stichproben in die Trainingsdaten eingeschleust werden. Dies verursacht eine Abweichung des maschinellen Lernmodells von seinem normalen Verlauf während des Trainings und beeinflusst somit die Leistung und die Entscheidungsgenauigkeit des Modells. Das Ziel ist es, das Modell dazu zu bringen, auf spezifische Aufgaben inkorrekte Ausgaben zu produzieren oder seine allgemeine Generalisierungsfähigkeit zu verringern. Der Anwendungswert von Model Poisoning liegt darin, die System sicherheit durch Forschung und Prävention solcher Angriffe zu erhöhen, wodurch die Robustheit und Glaubwürdigkeit des Modells gesteigert wird.

Keine Daten
Keine Benchmark-Daten für diese Aufgabe verfügbar
Modellvergiftung | SOTA | HyperAI