
최근 역행 기반 편집 분야에서 많은 발전이 이루어졌음에도 불구하고, 확산 모델에 있어서 텍스트 안내 이미지 조작은 여전히 어려움을 겪고 있습니다. 주요 문제점은 다음과 같습니다: 1) 역행 과정의 시간 소모성; 2) 일관성과 정확성 사이의 균형 유지의 어려움; 3) 일관성 모델에서 사용되는 효율적인 일관성 샘플링 방법과의 호환성 부족. 이러한 문제들을 해결하기 위해, 우리는 먼저 편집을 위한 역행 과정을 제거할 수 있는지 고민하였습니다. 초기 샘플이 알려져 있을 때, 특수한 분산 스케줄이 노이즈 제거 단계를 다단계 일관성 샘플링과 동일한 형태로 줄이는 것을 보여주었습니다. 이를 Denoising Diffusion Consistent Model (DDCM, 노이즈 제거 확산 일관성 모델)이라고 명명하였으며, 이는 명시적인 역행 없이 가상의 역행 전략을 내포한다는 점을 주목하였습니다. 또한, 우리는 튜닝이 필요하지 않은 프레임워크에서 텍스트 안내 편집을 위한 주의 제어 메커니즘들을 통합하였습니다. 이를 결합하여, 우리는 역행 과정 없이도 강체 및 비강체 의미 변경 모두에 대해 일관되고 충실한 편집을 가능하게 하는 InfEdit(역행 없는 편집)를 소개합니다. 이 방법은 복잡한 수정을 수행하면서도 이미지의 무결성을 해치지 않고 명시적인 역행을 피할 수 있습니다. 광범위한 실험을 통해 InfEdit는 다양한 편집 작업에서 뛰어난 성능을 보였으며, 실시간 응용 프로그램의 잠재력을 입증하는 원활한 워크플로(단일 A40 GPU에서 3초 미만)를 유지하였습니다. 프로젝트 페이지: https://sled-group.github.io/InfEdit/