
convolutional neural networks (CNNs) が医療画像セグメンテーションの進歩を牽引しているにもかかわらず、標準的なモデルには依然としていくつかの課題があります。第一に、マルチスケールアプローチ、つまりエンコーダー-デコーダー構造の使用により、情報の冗長な利用が発生し、類似した低レベル特徴量が複数のスケールで多次に抽出されます。第二に、長距離の特徴量依存関係が効率的にモデル化されていないため、各意味クラスに関連付けられた識別力のある特徴表現が最適ではない結果となっています。本論文では、提案するアーキテクチャを通じてこれらの制約を克服することを目指しています。具体的には、ガイデッドセルフアテンションメカニズムを使用することで、より豊かなコンテキスト依存関係を捉えます。この手法は、局所的な特徴量とそれに対応する全体的な依存関係を統合し、相互依存するチャンネルマップを適応的に強調することができます。さらに、異なるモジュール間での追加損失は、アテンションメカニズムが無関係な情報を無視し、画像内のより識別力のある領域に焦点を当てるために重要な特徴量関連性を強調します。我々は提案するモデルを3つの異なるデータセット(腹部臓器、心血管構造物および脳腫瘍)における意味セグメンテーションの文脈で評価しました。一連の削減実験は、提案されたアーキテクチャにおいてこれらのアテンションモジュールの重要性を支持しています。また、他の最先端のセグメンテーションネットワークと比較して、我々のモデルはより優れたセグメンテーション性能を示しており、予測精度を向上させつつ標準偏差も減少させています。これは医療画像の自動セグメンテーションにおいて精密かつ信頼性のある結果を得るための我々の方針の効果性を示しています。我々のコードは公開されており、以下のURLからアクセスできます: https://github.com/sinAshish/Multi-Scale-Attention