要約
メモリ容量や計算リソースが制限されたデバイス上に展開可能な、深層学習に基づくバイオメトリクスモデルの開発は、長年にわたり大きな課題であった。これまでのアプローチは、特徴マップの冗長性低減を重視してこなかったが、その点において「Ghostモジュール」の導入が画期的な進展をもたらした。Ghostモジュールは、内在的な特徴量から追加の特徴マップを、低コストな線形変換の連鎖によって抽出する手法であり、潜在的な情報のより包括的な表現を可能にする。このGhostモジュールを基盤とするGhostNetV1およびGhostNetV2は、それらを基に構築された軽量な顔認識モデル群「GhostFaceNets」の基盤を形成している。GhostNetV2は、元のGhostNetV1を拡張し、長距離依存関係を捉えるためのアテンション機構を導入している。さまざまなベンチマークを用いた評価において、GhostFaceNetsは、約60~275 MFLOPsの計算複雑度で優れた性能を発揮している。これは、数百メガFLOPsに達する場合もある最新鋭(SOTA)の大規模畳み込みニューラルネットワーク(CNN)モデルと比べて、著しく低い計算負荷である。精緻化されたMS-Celeb-1Mデータセット上でArcFace損失関数を用いて学習させたGhostFaceNetsは、すべてのベンチマークにおいてSOTAの性能を達成している。従来のSOTAモバイルCNNモデルと比較して、GhostFaceNetsは顔認証タスクにおける効率性を大幅に向上させている。GhostFaceNetsのコードは以下のURLから公開されている:https://github.com/HamadYA/GhostFaceNets