2달 전

Defense-GAN: 생성 모델을 사용하여 분류기 보호하기

Pouya Samangouei; Maya Kabkab; Rama Chellappa
Defense-GAN: 생성 모델을 사용하여 분류기 보호하기
초록

최근 몇 년 동안, 딥 뉴럴 네트워크 접근 방식은 분류를 포함한 기계 학습 작업에 널리 채택되었습니다. 그러나 이러한 접근 방식이 적대적 변형(adversarial perturbations)에 취약하다는 것이 밝혀졌습니다. 즉, 정교하게 설계된 작은 변형이 합법적인 이미지의 오분류를 유발할 수 있습니다. 우리는 이러한 공격으로부터 딥 뉴럴 네트워크를 방어하기 위해 생성 모델의 표현 능력을 활용하는 새로운 프레임워크인 Defense-GAN을 제안합니다. Defense-GAN은 변형되지 않은 이미지의 분포를 모델링하도록 훈련됩니다. 추론 시에는 주어진 이미지와 유사하지만 적대적 변형을 포함하지 않는 출력을 찾습니다. 이 출력은 이후 분류기에 입력됩니다. 우리가 제안한 방법은 어떤 분류 모델과도 함께 사용할 수 있으며, 분류기의 구조나 훈련 절차를 수정하지 않습니다. 또한 이 방법은 적대적 예제 생성 과정에 대한 지식을 가정하지 않으므로 어떠한 공격에도 방어책으로 사용될 수 있습니다. 우리는 경험적으로 Defense-GAN이 다양한 공격 방법에 대해 일관되게 효과적이며 기존의 방어 전략보다 우수함을 보여주었습니다. 우리의 코드는 https://github.com/kabkabm/defensegan에서 공개적으로 이용 가능합니다.

Defense-GAN: 생성 모델을 사용하여 분류기 보호하기 | 최신 연구 논문 | HyperAI초신경