Residual Aligner 기반 네트워크(RAN): 거친에서 정밀한 비연속 변형 등록을 위한 움직임 분리 구조
형태 변형 이미지 정합(Deformable image registration)은 서로 다른 이미지 간의 공간적 변환을 추정하는 중요한 과제로, 의료 영상 분야에서 핵심적인 역할을 한다. 최근 딥러닝 기법은 3차원(3D) 이미지 정합을 효율적으로 수행할 수 있음이 입증되었다. 그러나 기존의 정합 전략은 일반적으로 변형의 매끄러움(smoothness)에만 초점을 맞추며, 특히 장기 간의 교차 영역에서 복잡한 운동 패턴(예: 분리 또는 미끄러짐 운동)을 간과하게 되어, 다수의 인접한 객체 간의 비연속적 운동을 처리하는 데 한계를 보인다. 이로 인해 임상 적용 시 병변이나 기타 이상 부위의 오식별 또는 오지정위와 같은 바람직하지 않은 예측 결과가 발생할 수 있다.이러한 문제를 해결하기 위해, 본 연구에서는 새로운 방식의 정합 방법을 제안한다. 먼저, 분리된 운동을 효과적으로 포착할 수 있도록 ‘모션 분리 가능(Motion Separable) 백본’을 도입하였으며, 운동 불연속성의 이론적 상한선을 분석하여 그 가능성을 정량화하였다. 또한, 다수의 인접한 객체 또는 장기들 간의 예측된 운동을 분리하고 정밀하게 보정하기 위한 새로운 ‘잔차 정렬기(Residual Aligner) 모듈’을 제안하였다. 제안된 방법, 즉 잔차 정렬기 기반 네트워크(RAN, Residual Aligner-based Network)를 복부 CT 영상에 적용한 결과, 9개 장기의 비지도(unsupervised) 간 주체 정합에서 최고 수준의 정확도를 달성하였으며, 특히 정맥의 경우, 대동맥(vena cava)의 경우 62%의 Dice 유사도 계수(Dice Similarity Coefficient, DSC) 및 4.9mm의 평균 표면 거리(Average surface distance), 문맥 정맥 및 비장 정맥의 경우 34%의 DSC 및 7.9mm의 평균 표면 거리로 최고 성능을 보였다. 또한 기존 최첨단 방법들에 비해 모델 구조가 작고 계산량이 적어 효율성이 뛰어났다.또한 폐 CT 영상에 적용한 결과, 최고 성능을 기록한 기존 네트워크와 비슷한 수준의 성능(94%/3.0mm)을 달성하면서도, 더 적은 파라미터 수와 낮은 계산 부담을 갖는다는 점에서 우수한 효율성과 일반화 능력을 입증하였다.