LHU-Net: 비용 효율적이고 고성능의 부피형 의료 영상 분할을 위한 경량 하이브리드 U-Net

Transformer 아키텍처의 부상은 의료 영상 세분화 분야에 혁신을 가져왔으며, 정확도를 향상시키기 위해 합성곱 신경망(Convolutional Neural Networks, CNNs)과 Transformer를 결합한 하이브리드 모델의 등장이 가능해졌다. 그러나 이러한 모델들은 종종 복잡성이 증가하고, 공간적 특징과 채널 특징 간의 상호작용을 간과하는 문제가 있다. 이는 세분화 정확도에 있어 핵심적인 요소임에도 불구하고 발생하는 한계이다. 본 연구에서는 체적 의료 영상 세분화를 위한 간소화된 하이브리드 U-Net인 LHU-Net을 제안한다. LHU-Net은 효과적인 특징 추출을 위해 먼저 공간적 특징을 분석한 후 채널 특징을 처리하는 구조를 갖추고 있다. 제안된 모델은 Synapse, LA, Pancreas, ACDC, BRaTS 2018 등 다섯 개의 벤치마크 데이터셋에서 검증되었으며, 기존 최고 수준의 모델 대비 파라미터 수의 85% 감소와 계산량의 4분의 1 감소를 이뤄내면서도 뛰어난 정확도를 달성하였다. 특히 ACDC 데이터셋에서 92.66의 Dice 스코어를 기록하며, 사전 훈련, 추가 데이터, 모델 앙상블 없이도 뛰어난 성능을 보였다. 이는 1,100만 개 미만의 파라미터로도 의료 영상 세분화의 계산 효율성과 정확도의 새로운 기준을 설정한 것으로, 계산 효율성과 높은 정확도를 균형 있게 달성하는 것이 가능함을 입증한다. LHU-Net의 구현 코드는 연구 공동체가 자유롭게 이용할 수 있도록 GitHub(https://github.com/xmindflow/LHUNet)에 공개되어 있다.