
医用画像解析において、病変の同定および局在化、形態変化のモニタリング、さらには診断に向けた特徴の抽出を行うためには、セグメンテーションが不可欠である。皮膚がんは世界中で最も一般的ながんの一つであり、早期診断は悪性腫瘍を体から完全に除去する上で極めて重要である。本研究では、深層学習アプローチを用いて教師あり皮膚病変セグメンテーションを実現する人工知能(AI)フレームワークを提案する。本研究で提案するフレームワークは、マルチフォーカスセグメンテーションネットワーク(MFSNet)と呼ばれ、皮膚病変のRGB入力画像を用いて、異なるスケールの特徴マップを統合して最終的なセグメンテーションマスクを生成する。このプロセスにおいて、まず画像の前処理が行われ、不要なアーティファクトやノイズが除去される。MFSNetは、最近提案された畳み込みニューラルネットワーク(CNN)であるRes2Netをバックボーンとして採用し、深層特徴を抽出。これらの特徴は、並列部分デコーダー(PPD)モジュールに供給され、セグメンテーションマスクのグローバルなマップを生成する。ネットワークの異なる段階において、畳み込み特徴とマルチスケールマップが2つの境界注意(BA)モジュールおよび2つの逆注意(RA)モジュールに供給され、最終的なセグメンテーション出力を生成する。MFSNetは、公開されている3つのデータセット($PH^2$、ISIC 2017、HAM10000)において評価され、最先端の手法を上回る性能を示し、本フレームワークの信頼性を裏付けている。本研究で提案する手法に関する実装コードは、以下のGitHubリポジトリから公開されている:https://github.com/Rohit-Kundu/MFSNet