HyperAI
Command Palette
Search for a command to run...
敵対的テキスト
敵対的テキストとは、言語モデルの予測を意図的に影響させるために特別に設計されたテキストシーケンスのことです。主な目的は、モデルの通常の動作を妨害することで、その脆弱性や潜在的な弱点を明らかにすることです。異なる種類の敵対的テキスト攻撃手法を研究することは、効果的な防御メカニズムの構築、悪意のある入力の検出、そして大規模言語モデルのセキュリティと堅牢性の向上につながります。
データなし
このタスクで利用可能なベンチマークデータがありません