17日前

転移可能な視覚単語:自己教師付き学習における解剖学的パターンの意味を活用する

Fatemeh Haghighi, Mohammad Reza Hosseinzadeh Taher, Zongwei Zhou, Michael B. Gotway, Jianming Liang
転移可能な視覚単語:自己教師付き学習における解剖学的パターンの意味を活用する
要約

本稿では、深層学習を用いた医療画像解析におけるアノテーション効率を向上させるための新概念「転移可能な視覚単語(Transferable Visual Words, TransVW)」を提案する。医療画像は特定の身体部位を臨床目的に応じて焦点化して取得されるため、患者間で解剖学的に極めて類似した画像が得られ、画像間には複雑な解剖学的パターンが存在する。これらのパターンは人体解剖に関する豊かな意味情報を含んでおり、自然な「視覚単語」として捉えることができる。本研究では、解剖学的整合性に基づいて自己発見的にこれらの視覚単語を自動的に抽出できることを示し、その自己発見的な視覚単語が、自己教師学習(自己分類および自己復元)を通じて、意味情報を豊かに含む汎用的な画像表現を深層モデルが学習するための強力かつ無償の教師信号として機能することを明らかにした。広範な実験により、TransVWが複数の応用において、アノテーションコストを低減しつつ、より高い性能と高速な収束を実現することを実証した。本手法の主な利点は以下の通りである:(1)TransVWは完全に自己学習型の枠組みであり、視覚単語の意味情報を活用して教師なし学習を実現するため、専門家によるアノテーションを一切不要とする;(2)視覚単語の学習は既存の自己教師学習手法に追加的に適用可能な戦略であり、それらの性能を向上させることが可能である;(3)学習された画像表現は意味情報を豊富に含むモデルであり、その堅牢性と汎化性能が確認されており、転移学習によりさまざまな応用におけるアノテーション作業を大幅に削減できる。本研究のコード、事前学習済みモデル、および収集・整理された視覚単語は、https://github.com/JLiangLab/TransVW にて公開されている。

転移可能な視覚単語:自己教師付き学習における解剖学的パターンの意味を活用する | 最新論文 | HyperAI超神経