中国科学院開発、世界初の実時間漢語脳機インターフェースを実現
中国科学院上海微系統・情報技術研究所らの研究チームが、漢語のリアルタイム脳機インターフェース(BCI)技術の実現に成功し、言語障害を抱える患者が新たなコミュニケーション手段を獲得する可能性を示した。脳卒中や筋萎縮性側索硬化症(ALS)などの重大な脳疾患により言語能力を失った患者に対して、脳からの信号を解析し、漢語の語句として再構成する技術の開発は、社会的・個人的な生活の質向上に大きく貢献する。 これまでの国際的な研究では、英語を対象としたBCIによる音声や文字の合成が進んでいたが、漢語を対象とした研究は限られていた。漢語は音節数が少なく、400音節と4つの声調で日常用語の3500字以上を構成可能という特徴を持つ。研究チームは、この特徴を活かし、漢語の音節と声調を中間解码ユニットとして採用。400音節と4声調の組み合わせを基に、脳電位信号から文字を「翻訳」するアプローチを確立。高通量・柔軟性に優れたインプラント型BCIと、リアルタイムで動作する神経ネットワーク解码アルゴリズムを統合し、世界で初めて脳信号から漢語の語句をリアルタイムで解码・合成することに成功した。 解码プロセスでは、50ミリ秒のスライドウィンドウで70~170HzのHigh-γ帯域脳波を抽出。発音開始点と同期させ、音節と声調の確率分布を二重流で生成。その後、言語モデルと統合し、自然な文の組み立てを実現。9日間の訓練後、394音節の純神経解码平均正解率は71.2%、単音節解码遅延は65ms、語句解码速度は1分間に49.6字に達した。 さらに、このBCI技術は、AI大規模モデルとの連携や、汎用型BCIオペレーティングシステムと統合。受試者は、デジタル分身を操作し、AIと対話するなど、高度な人間-機械インタラクションを実現。また、脳信号を指令に変換し、機械手をリアルタイムで制御する実験も成功。研究成果は『Science Advances』に掲載され、中国科学院や上海市の支援を受けた。この技術は、将来的に失語患者の社会参加を大きく支援する可能性を秘めている。
