17일 전
비지도 의료 이미지 번역을 위한 적대적 확산 모델
Muzaffer Özbey, Onat Dalmaz, Salman UH Dar, Hasan A Bedel, Şaban Özturk, Alper Güngör, Tolga Çukur

초록
소스 모달리티에서 타겟 모달리티로의 이미지 변환을 통한 누락 이미지 보정은 의료 영상 프로토콜의 다양성을 향상시킬 수 있다. 타겟 이미지를 합성하기 위한 일반적인 접근 방식은 생성적 적대 네트워크(GAN)를 이용한 일회성 매핑이다. 그러나 이미지 분포를 암묵적으로 특성화하는 GAN 모델은 샘플의 정밀도가 제한되는 경향이 있다. 본 연구에서는 의료 영상 변환에서 더 뛰어난 성능을 달성하기 위해 적대적 확산 모델링 기반의 새로운 방법인 SynDiff를 제안한다. 이미지 분포의 직접적인 대응을 포착하기 위해 SynDiff는 소스 이미지와 노이즈를 타겟 이미지로 점진적으로 매핑하는 조건부 확산 과정을 활용한다. 추론 시 빠르고 정확한 이미지 샘플링을 위해 역확산 방향에서 적대적 투영을 활용해 큰 확산 단계를 적용한다. 쌍방향으로 두 모달리티 간을 변환할 수 있도록 하기 위해, 쌍방향 번역이 가능한 결합된 확산 및 비확산 모듈을 갖춘 사이클 일관성 아키텍처를 설계하여 비페어드 데이터셋에서도 학습이 가능하도록 했다. 다중 대조 MRI 및 MRI-CT 변환에서 SynDiff의 성능을 기존 GAN 및 확산 모델과 비교하여 광범위한 평가를 수행하였다. 실험 결과 SynDiff가 경쟁 모델들에 비해 정량적·정성적으로 뛰어난 성능을 보임을 확인하였다.