モデル抽出

モデル抽出攻撃、またはモデル盗難攻撃は、技術的な手段を通じて対象のモデルからパラメータを抽出するプロセスを指します。攻撃者の目的は、対象モデルの性能をほぼ同じに模倣する新しいモデルを盗んで複製することです。この種の攻撃は、敵対的機械学習において重要な役割を果たし、モデルのセキュリティと堅牢性を評価する一方で、モデルの知的財産権の保護にも課題をもたらします。

モデル抽出 | SOTA | HyperAI超神経