複数の異種ラベル付きデータセットから学習する普遍的な病変検出

病変検出は、医療画像解析における重要な問題です。これまでの多くの研究では、特定の種類の病変(例:肺結節)を検出およびセグメンテーションすることに焦点を当てています。しかし、臨床現場では、放射線技師がすべての可能な異常を見つける責任があります。全般的な病変検出(Universal Lesion Detection: ULD)という課題は、この挑戦に対処するために全身から多様な種類の病変を検出することを目的として提案されました。複数のラベル付けが不均一なデータセットがあり、そのラベルの完全性も異なります:最大規模で32,735件の様々なタイプの注釈付き病変を持つDeepLesionデータセット(ただし、さらに多くの未注釈インスタンスが存在します)や、LUNA(肺結節用)、LiTS(肝臓腫瘍用)などの完全にラベル付けされた単一タイプの病変データセットがあります。本研究では、これらのデータセットを組み合わせてULDの性能向上を目指す新しいフレームワークを提案します。まず、全てのデータセットを使用してマルチヘッド・マルチタスク型病変検出器を学習し、DeepLesion上で病変候補を生成します。次に、DeepLesion内の未注釈部分は新たな埋め込みマッチング手法により回収されますが、この手法は臨床的な事前知識を利用しています。最後に、単一タイプの病変検出器からの知識転送を利用して疑わしいが未注釈の病変を見つけます。この方法により、部分的にラベル付けされた画像や未ラベル付けされた画像から信頼性のある陽性領域と陰性領域を得ることができ、それらは効果的にULDの訓練に利用されます。3Dボリューム的なULDについて臨床的に現実的なプロトコルを評価するために、DeepLesion内の1071個のCTサブボリュームを完全に注釈しました。我々の方法は平均感度という指標において現行最先端アプローチよりも29%優れた結果を示しています。