2달 전

OCD: 조건부 확산 모델을 이용한 과적합 학습

Shahar Lutati; Lior Wolf
OCD: 조건부 확산 모델을 이용한 과적합 학습
초록

우리는 입력 샘플 x에 조건부로 가중치를 설정하고, x와 그 레이블 y에 대해 베이스 모델을 fine-tuning한 결과 얻어진 가중치와 일치하도록 학습하는 동적 모델을 제시합니다. 이 입력 샘플과 네트워크 가중치 간의 매핑은 노이즈 제거 확산 모델(denoising diffusion model)로 근사됩니다. 우리가 사용하는 확산 모델은 베이스 모델의 단일 층을 수정하는 데 초점을 맞추며, 이 층의 입력, 활성화 상태(activations), 출력에 조건부로 작동합니다. 확산 모델은 본질적으로 확률적이므로, 여러 초기화 과정을 통해 서로 다른 네트워크가 생성되어 앙상블(ensemble)을 형성하며, 이는 추가적인 성능 향상을 가져옵니다. 우리의 실험 결과는 이 방법이 이미지 분류, 3D 재구성, 표형 데이터(tabular data), 음성 분리(speech separation), 자연어 처리(natural language processing) 등 다양한 분야에서 널리 적용될 수 있음을 보여줍니다. 우리의 코드는 https://github.com/ShaharLutatiPersonal/OCD에서 확인할 수 있습니다.

OCD: 조건부 확산 모델을 이용한 과적합 학습 | 최신 연구 논문 | HyperAI초신경