HyperAI초신경

Adversarial Attack

대립적 공격은 머신 러닝 모델의 예측을 변경하기 위한 작은 변동을 찾는 기술입니다. 이러한 변동은 인간의 시각에는 거의 감지되지 않지만, 모델의 출력에 효과적으로 영향을 미칠 수 있습니다. 이는 모델의 취약점과 잠재적인 보안 위험을 드러내므로 중요한 연구 및 응용 가치가 있습니다.