Anatomy-XNet: 胸部X線画像における胸部疾患分類のための解剖学を考慮した畳み込みニューラルネットワーク

胸部X線画像から胸部疾患を検出する深層学習手法は、過去10年間で活発な研究領域となっています。これまでの多くの手法は、モデルの予測に重要な寄与をする空間領域を特定することで、画像内の病変器官に焦点を当てるよう試みられてきました。一方、専門的な放射線科医はまず主要な解剖学的構造を特定し、その後にその領域が異常かどうかを判断します。したがって、深層学習モデル内に解剖学的知識を取り入れることにより、自動的な疾患分類において大幅な改善が期待されます。この動機に基づき、私たちはAnatomy-XNet(解剖学的注意に基づく胸部疾患分類ネットワーク)を提案します。このネットワークは、事前に特定された解剖学的領域によって導かれる空間特徴を優先的に処理します。私たちは半教師あり学習手法を採用し、小規模な臓器レベルのアノテーションを利用することで、大規模データセットにおける臓器レベルのアノテーションがない場合でも解剖学的領域を特定します。提案されたAnatomy-XNetでは、事前学習済みのDenseNet-121を使用し、対応する2つの構造化モジュールである解剖学的注意(Anatomy Aware Attention, A$^3$)と確率重み平均プーリング(Probabilistic Weighted Average Pooling, PWAP)を統合したフレームワークで解剖学的注意の学習を行います。実験結果から、私たちの提案手法は3つの公開大規模CXRデータセット(NIH, Stanford CheXpert, MIMIC-CXR)においてそれぞれ85.78%、92.07%、84.04%のAUCスコアを達成し、新たな最先端基準を設定しました。これは単に解剖学的セグメンテーション知識を利用することで胸部疾患分類が向上することを証明するだけでなく、提案されたフレームワークの汎化能力も示しています。