要約
グラフ畳み込みネットワーク(GCN)は、非ユークリッドデータを扱うための新規かつ強力な手法である一方で、畳み込みニューラルネットワーク(CNN)は画像などユークリッドデータからの特徴を学習できる。本研究では、CNNとGCNを組み合わせる新たな手法(CNN-GCN)を提案する。この手法は、ユークリッド的および非ユークリッド的特徴の両方を考慮可能であり、エンド・トゥ・エンドで訓練が可能である。本手法は肺血管木を動脈と静脈(A/V)に分離するタスクに適用した。胸部CTスキャンは、血管セグメンテーションおよびスケルトン化によって前処理され、その結果として得られたスケルトン上のボクセルを頂点集合とし、それらの接続関係を隣接行列として表現するグラフを構築した。各頂点を中心とする3次元のパッチを、血管に垂直に向き合わせてCTスキャンから抽出した。提案したCNN-GCN分類器を構築された血管グラフ上で訓練・適用し、各ノードを動脈または静脈としてラベル付けした。本手法は1つの病院(11例、22肺)のデータを用いて訓練・検証し、別病院の独立したデータ(10例、10肺)を用いてテストした。比較対象として、ベースラインとなるCNN手法および人間の観察者性能を用いた。CNN-GCN手法は、検証セットにおいて中央値精度0.773、テストセットにおいて0.738を達成した。一方、人間観察者の中央値精度は0.817、CNNの中央値精度はそれぞれ0.727(検証)および0.693(テスト)であった。結論として、提案するCNN-GCN手法は、局所的な画像情報とグラフの接続構造情報を統合することで、ベースラインのCNN手法よりも肺動静脈分離の性能を向上させ、人間観察者の性能に近づいた。