적대적 예
적대적 예는 신경망에 입력이 들어와서 네트워크가 잘못된 결과를 출력하는 것을 말합니다.
입력 샘플은 데이터 집합에 의도적으로 약간의 간섭을 추가하여 형성됩니다. 간섭된 입력으로 인해 모델은 높은 신뢰도로 잘못된 출력을 제공합니다. 입력 샘플을 적대적 샘플이라고 합니다. 이러한 행동은 일반적으로 신경망 모델에 대한 적대적 공격으로 간주됩니다.
이것은 Christian Szegedy 등이 처음 제안했습니다. ICLR2014 논문에서.