XSleepNet: 自動睡眠ステージングのための多視点シーケンシャルモデル

睡眠ステージングの自動化は、睡眠不足や睡眠障害を経験している数百万人にサービスを提供し、家庭環境での長期的な睡眠モニタリングを可能にするために重要です。生のポリソムノグラフィ信号とそれらから派生した時間-周波数画像表現からの学習が一般的となっています。しかし、複数ビュー入力(例えば、生信号と時間-周波数画像の両方)からの学習は難しく、十分に理解されていません。本研究では、生信号と時間-周波数画像の両方から共同表現を学習できるシーケンス・ツー・シーケンスの睡眠ステージングモデルであるXSleepNetを提案します。異なるビューは異なる速度で汎化または過学習する可能性があるため、提案されたネットワークは各ビューの汎化/過学習行動に基づいて学習ペースが適応的に調整されるように訓練されます。つまり、特定のビューが良好に汎化している場合は学習速度が上げられ、過学習している場合は下げられます。各ビュー固有の汎化/過学習指標は訓練過程中に即座に計算され、異なるビューからの勾配をブレンドするために重みを導出するために使用されます。その結果、ネットワークは各個別のビューだけでは得られないより良い潜在分布を表す共同特徴量において異なるビューの表現力を保持することができます。さらに、XSleepNetアーキテクチャは原則として訓練データ量に対する堅牢性を得るとともに、入力ビュー間の補完性を増加させるように設計されています。5つの異なるサイズのデータベースにおける実験結果は、XSleepNetが単一ビュー基準と単純な融合戦略を持つ多視点基準よりも一貫して優れていることを示しています。最後に、XSleepNetは以前の睡眠ステージング手法よりも優れており、実験データベースにおける従来の最先端結果を改善しています。