HyperAI초신경

적대적 머신 러닝(AML)

적대적 머신 러닝은 기만적인 입력을 제공하여 머신 러닝 모델을 속이는 것을 목표로 하는 머신 러닝 방법입니다. 따라서 여기에는 분류기를 속이기 위해 특별히 생성된 입력인 적대적 예시의 생성과 감지가 포함됩니다. 적대적 기계 학습이라고 알려진 이러한 공격은 이미지 분류 및 스팸 감지와 같은 분야에서 폭넓게 연구되었습니다.
적대적 머신 러닝은 이미지 인식 분야에서 가장 광범위하게 연구되었는데, 이미지를 수정하여 분류기가 잘못된 예측을 생성하게 하는 분야입니다.

머신 러닝에서의 적대적 공격의 위협

머신 러닝이 조직의 가치 제안의 핵심으로 빠르게 자리 잡으면서 조직에서 머신 러닝을 보호해야 할 필요성도 빠르게 커지고 있습니다. 그 결과, 적대적 머신 러닝은 소프트웨어 산업에서 중요한 분야가 되고 있습니다.

AI 시스템에 대한 적대적 공격의 작동 방식

머신 러닝 시스템에 사용할 수 있는 다양한 적대적 공격이 있습니다. 이러한 연구의 대부분은 딥 러닝 시스템과 SVM(지원 벡터 머신) 및 선형 회귀와 같은 기존 머신 러닝 모델을 대상으로 합니다. 대부분의 적대적 공격은 특정 작업에 대한 분류기의 성능을 저하시키도록 설계되어, 본질적으로 머신 러닝 알고리즘을 "속이려고" 합니다. 적대적 머신 러닝은 특정 작업에 대한 분류기의 성능을 저하시키도록 설계된 공격 유형을 연구하는 분야입니다. 적대적 공격은 크게 중독 공격, 회피 공격, 모델 추출 공격으로 구분할 수 있다.  

참고문헌

【1】https://viso.ai/deep-learning/adversarial-machine-learning/