17日前

MedSegDiff-V2:Transformerを用いた拡散モデルベースの医療画像セグメンテーション

Junde Wu, Wei Ji, Huazhu Fu, Min Xu, Yueming Jin, Yanwu Xu
MedSegDiff-V2:Transformerを用いた拡散モデルベースの医療画像セグメンテーション
要約

拡散確率モデル(Diffusion Probabilistic Model, DPM)は、Imagen、Latent Diffusion Models、Stable Diffusionなどの画像生成応用を通じて、近年、コンピュータビジョン分野で注目を集めている。これらのモデルは驚異的な生成能力を示し、コミュニティ内での議論を呼んでいる。さらに最近の研究では、DPMが医療画像解析分野においても有効であることが明らかになっており、さまざまなタスクにおいて優れた性能を発揮する医療画像セグメンテーションモデルの存在が示されている。当初これらのモデルはUNetアーキテクチャに基づいて構築されていたが、視覚変換器(Vision Transformer)の導入により、さらなる性能向上が期待できる可能性がある。しかしながら、単純に両者を統合した場合、性能が不十分であることが本研究で明らかになった。医療画像セグメンテーションの分野において、この2つの最先端技術を効果的に統合するため、本研究では新たなTransformerベースの拡散フレームワーク、MedSegDiff-V2を提案する。本手法は、異なる画像モダリティを有する20の医療画像セグメンテーションタスクにおいて検証され、包括的な評価を通じて、従来の最先端(SOTA)手法を上回る優れた性能を示した。実装コードは、https://github.com/KidsWithTokens/MedSegDiff にて公開されている。