HyperAI초신경

Model Extraction

모델 추출 공격, 또는 모델 도용 공격은 타겟 모델의 파라미터를 일련의 기술적 수단을 통해 추출하는 과정을 의미합니다. 공격자의 목표는 타겟 모델의 성능을 거의 동일하게 모방하는 새로운 모델을 도용하는 것입니다. 이 공격 유형은 적대적 머신 러닝에서 중요한 역할을 하며, 모델의 보안과 견고성을 평가하는 데 사용될 수 있지만, 동시에 모델의 지적 재산권 보호에 대한 도전도 제기합니다.