HyperAIHyperAI

Command Palette

Search for a command to run...

AIが多視点心エコーを統合解析——1200万件データで学習した新モデル「EchoPrime」が臨床精度を刷新

心エコー検査の包括的評価を実現する視覚言語AI「EchoPrime」が開発された。カリフォルニア大学ロサンゼルス校(UCLA)とセダース・サイナイ病院の研究チームが、1200万件以上の心エコー動画と診断レポートのペアを用いて学習した、多視点・視点認識型のビデオベース視覚言語基礎モデルを構築した。このモデルは、従来の単一視点・単一タスク型AIとは異なり、全検査で取得される複数の視点情報を統合的に分析できる点が特徴。特に、対照学習により全標準視点の統一された埋め込み表現を学習し、稀な疾患や一般的な診断を含む多様な病態に対応している。 EchoPrimeは、視点分類と視点認識アテンションモジュールを組み合わせ、各動画の特徴を正確に解釈。さらに、検索増強型解釈(retrieval-augmented interpretation)により、すべての視点情報を統合し、心臓の構造と機能に関する包括的な臨床的解釈を実現。5カ国・5つの独立した医療システムから得られたデータセットにおいて、23の多様な心臓形態・機能評価ベンチマークで、従来のタスク特化型モデルや既存の基礎モデルを上回る性能を達成した。 研究チームは、臨床的評価を経て、EchoPrimeが心エコー検査の自動的初期評価を医師の支援に活用できると結論づけている。この技術は、診断の再現性と精度を高め、医療現場での負担軽減に貢献する可能性がある。本研究はNature誌に掲載予定であり、今後の臨床応用が期待される。

関連リンク