对抗性机器学习 (Adversarial Machine Learning) 是一种机器学习方法,旨在通过提供欺骗性输入来欺骗机器学习模型。因此,它包括对抗性示例的生成和检测,这些示例是专门为欺骗分类器而创建的输入。 此类攻击被称为对抗性机器学习,已在图像分类和垃圾邮件检测等领域得到广泛探索。
对抗性机器学习最广泛的研究是在图像识别领域进行的,其中对图像进行修改,导致分类器产生错误的预测。
随着机器学习迅速成为组织价值主张的核心,组织保护机器学习的需求也在快速增长。因此,对抗性机器学习正在成为软件行业的一个重要领域。
有多种不同的对抗性攻击可用于针对机器学习系统。其中许多工作针对深度学习系统和传统机器学习模型,例如支持向量机 (SVM) 和线性回归。 大多数对抗性攻击通常旨在降低分类器在特定任务上的性能,本质上是为了 “欺骗” 机器学习算法。 对抗性机器学习是研究一类攻击的领域,这些攻击旨在降低分类器在特定任务上的性能。对抗性攻击主要可以分为以下几类: 中毒袭击、逃避攻击和模型提取攻击
【1】https://viso.ai/deep-learning/adversarial-machine-learning/