
子宮頸がんは年間50万人以上の女性に影響を与え、30万人以上が死亡している。この疾患を患者の体内から根絶するためには、早期段階での発見が極めて重要である。しかし、がんの定期的な大規模スクリーニングは、検出プロセスが高コストかつ人手を要するため、実施が制限されている。臨床現場では、10万以上の子宮頸細胞から成る染色スライドから個々の細胞を分類して悪性の有無を判定する必要があり、これは非常に時間と労力を要する作業である。この課題に対応するため、がんの迅速かつ容易な検出を可能にするコンピュータ支援診断(CAD)システムが注目されている。本研究では、ImageNetデータセットで事前学習された3種類の畳み込みニューラルネットワーク(CNN)アーキテクチャ——Inception v3、Xception、DenseNet-169——を用いたアンサンブルベースの分類モデルを構築した。このモデルは、パップ染色された単一細胞画像および全スライド画像の分類を目的としている。提案手法では、各ベース分類器が生成する決定スコアに対して2つの非線形関数を適用し、ファジィランクベースの融合方式を採用している。既存の単純な融合手法とは異なり、本手法はベース分類器の予測に対する信頼度を考慮した上で、テストサンプルに対する最終予測を実施するため、より信頼性の高い分類結果が得られる。提案モデルは、公開されている2つのベンチマークデータセット——SIPaKMeDパップスメアデータセットおよびMendeley液体ベース細胞診(LBC)データセット——を用いて、5分割交差検証法により評価された。SIPaKMeDデータセットにおいて、2クラス分類設定では分類精度98.55%、感度98.52%を達成し、5クラス分類設定では精度95.43%、感度98.52%を記録した。Mendeley LBCデータセットでは、精度および感度ともに99.23%を達成した。これらの結果は、多数の最先端モデルを上回っており、本手法の有効性を裏付けている。本研究で提案するモデルの関連コードは、GitHub上で公開されており、研究の再現性とさらなる発展を支援している。