Adversarial Attack
Adversarische Angriffe sind eine Technik, die darauf abzielt, kleine Störungen zu finden, die die Vorhersagen von maschinellem Lernen verändern können. Diese Störungen sind für das menschliche Auge fast nicht wahrnehmbar, aber sie können den Ausgang des Modells effektiv beeinflussen. Dadurch werden die Schwachstellen und potenziellen Sicherheitsrisiken des Modells offengelegt, was sowohl für Forschung als auch für praktische Anwendungen von großer Bedeutung ist.