17일 전
점수 아이덴티티 다이스틸레이션: 단일 스텝 생성을 위한 사전 훈련된 확산 모델의 지수적으로 빠른 다이스틸레이션
Mingyuan Zhou, Huangjie Zheng, Zhendong Wang, Mingzhang Yin, Hai Huang

초록
우리는 사전 훈련된 확산 모델의 생성 능력을 단일 단계 생성기로 전이하는 데이터 없이 작동하는 혁신적인 방법인 Score Identity Distillation(SiD)을 제안한다. SiD는 훈련 과정 중에 Fréchet Inception Distance(FID)를 지수적으로 빠르게 감소시키며, 원래의 교사 확산 모델의 FID 성능에 도달하거나 이를 초과하는 결과를 보인다. 전방 확산 과정을 반음성 분포(semi-implicit distribution)로 재정의함으로써, 세 가지 스코어 관련 항등식을 활용하여 혁신적인 손실 메커니즘을 설계하였다. 이 메커니즘은 생성기의 자체 합성 이미지를 사용하여 훈련함으로써, 실제 데이터나 역확산 기반 생성을 필요로 하지 않으면서도 생성 시간을 크게 단축하면서 빠른 FID 감소를 달성한다. 네 가지 벤치마크 데이터셋에서의 평가 결과, SiD 알고리즘은 훈련 과정에서 높은 반복 효율성을 보이며, 단일 단계 또는 소수 단계, 데이터 없음 또는 훈련 데이터에 의존하는 기존의 다양한 전이 방법들과 비교하여 생성 품질 측면에서 뛰어난 성능을 입증하였다. 이 성과는 확산 모델 전이 분야뿐 아니라 확산 기반 생성 기술 전체의 효율성과 효과성 기준을 재정의하는 데 기여한다. PyTorch 기반 구현 코드는 https://github.com/mingyuanzhou/SiD 에서 공개되어 있다.