HyperAI
Command Palette
Search for a command to run...
モデル中毒
モデルのポイズニングとは、攻撃者が学習データに悪意のあるサンプルを注入し、機械学習モデルの学習過程を正常から逸らさせることで、モデルの性能や決定精度に影響を与える行為を指します。目的は、特定のタスクで不正な出力を生成させたり、全体的な汎化能力を低下させることです。モデルのポイズニングの応用価値は、このような攻撃の研究と防止を通じてシステムのセキュリティを向上させ、モデルの堅牢性と信頼性を高めることにあります。
データなし
このタスクで利用可能なベンチマークデータがありません