HyperAIHyperAI

Command Palette

Search for a command to run...

バックドア攻撃

バックドア攻撃とは、訓練データセットに悪意を持ってデータを注入し、テスト時にバックドアトリガーが含まれる入力を対象クラスとして誤分類させる攻撃手法です。これらの攻撃の目的は、モデルの予測結果を隠蔽的に操作することであり、特にコンピュータビジョンの分野において、モデルのセキュリティと堅牢性を評価し、向上させるための重要な研究価値と実用的な意味を持っています。

データなし
このタスクで利用可能なベンチマークデータがありません