HyperAI

Model Extraction

Modellextaktionsangriffe, auch als Modellklauangriffe bekannt, beziehen sich auf den Prozess des Extrahierens von Parametern aus einem Zielmodell durch eine Reihe technischer Methoden. Das Ziel des Angreifers ist es, ein neues Modell zu stehlen und zu replizieren, das die Leistung des Zielmodells nahezu identisch nachbildet. Diese Art von Angriff ist in der feindlichen Maschinenlernen von großer Bedeutung, da sie die Sicherheit und Robustheit von Modellen bewerten kann und gleichzeitig Herausforderungen für den Schutz der Modell-Intellektuellen Eigentumsrechte darstellt.