要約
臨床画像における専門家ラベルの取得は、網羅的なアノテーションが時間的に非常に負担となるため困難である。さらに、すべての関連しうるマーカーが事前に十分に把握・記述されているとは限らず、アノテーションのガイドラインとして利用できる状態にない場合も少なくない。教師あり学習は、専門家ラベル付きの訓練データが得られる場合、良好な結果をもたらすが、検出および活用可能な所見の視覚的変異性、すなわち所見の語彙は、アノテーションされた病変に限定されてしまう。本研究では、異常画像および画像領域を検出可能な、教師なし学習アプローチである高速AnoGAN(f-AnoGAN)を提案する。f-AnoGANは生成的対抗ネットワーク(GAN)に基づく手法であり、画像バイオマーカー候補として利用可能な異常を同定可能である。本手法では、健康な訓練データの生成モデルを構築し、新しいデータをGANの潜在空間へ迅速にマッピングする手法を提案・評価する。このマッピングは、事前に訓練されたエンコーダに基づくものであり、異常の検出は、訓練済みモデルの構成要素である識別器の特徴残差誤差と画像再構成誤差を統合した異常スコアに基づいて行われる。光学コヒーレンス断層撮影(OCT)データを用いた実験では、提案手法を他の代替手法と比較し、f-AnoGANが他の手法を上回り、高い異常検出精度を達成することを包括的な実証的証拠により示した。さらに、網膜専門医2名による視覚的チューリングテストにおいて、生成画像が正常な網膜OCT画像と区別がつかないことが確認された。f-AnoGANのコードは、https://github.com/tSchlegl/f-AnoGAN にて公開されている。