HyperAI
Command Palette
Search for a command to run...
バックドア攻撃
バックドア攻撃とは、訓練データセットに悪意を持ってデータを注入し、テスト時にバックドアトリガーが含まれる入力を対象クラスとして誤分類させる攻撃手法です。これらの攻撃の目的は、モデルの予測結果を隠蔽的に操作することであり、特にコンピュータビジョンの分野において、モデルのセキュリティと堅牢性を評価し、向上させるための重要な研究価値と実用的な意味を持っています。
データなし
このタスクで利用可能なベンチマークデータがありません