敵対的機械学習は、欺瞞的な入力を提供することで機械学習モデルを騙すように設計された機械学習手法です。したがって、これには、分類子を騙すために特別に作成された入力である敵対的な例の生成と検出が含まれます。 このような攻撃は敵対的機械学習として知られており、画像分類やスパム検出などの分野で広く研究されています。
敵対的機械学習は、画像認識の分野で最も広く研究されており、画像を変更すると分類器が不正確な予測を生成します。
機械学習が組織の価値提案の中心となるにつれて、組織が機械学習を保護する必要性が急速に高まっています。したがって、敵対的機械学習はソフトウェア業界の重要な分野になりつつあります。
機械学習システムに対して使用できるさまざまな敵対的攻撃が存在します。これらの研究の多くは、深層学習システムと、サポート ベクター マシン (SVM) や線形回帰などの従来の機械学習モデルを対象としています。 ほとんどの敵対的攻撃は通常、特定のタスクにおける分類器のパフォーマンスを低下させること、つまり基本的に機械学習アルゴリズムを「だます」ことを目的としています。 敵対的機械学習は、特定のタスクに対する分類子のパフォーマンスを低下させるように設計された攻撃のクラスを研究する分野です。敵対的攻撃は主に、ポイズニング攻撃、回避攻撃、モデル抽出攻撃のカテゴリに分類できます。
【1】https://viso.ai/deep-learning/adversarial-machine-learning/