リバプール大、人間の視聴覚統合を再現する新たなAIモデルを開発
リバプール大学の研究チームが開発した新しいコンピュータモデルが、人間の視覚と聴覚の統合処理を生物学的に再現し、人間の感覚統合に近い動作を実現した。このモデルは、視覚と音声情報を同時に処理し、両者の関連性を自然に認識する能力を持つ。たとえば、音声の発話と口の動きが一致するかどうかを正確に判断できる。これは、人間が「声と口の動きのズレ」に敏感に反応する仕組みに着想を得ている。 研究チームは、脳内の感覚統合メカニズムを模倣することで、従来のAIモデルでは難しかったリアルな多感覚処理を実現。この技術は、自律走行車やロボットの環境認識、仮想現実(VR)における自然なインタラクションなど、AIの機械的認識能力を飛躍的に高める可能性を秘めている。 このモデルは、単に音声や画像を別々に処理するのではなく、両者の関係性を統合的に理解する点で、従来のAIアプローチと本質的に異なる。今後、人間らしい「知覚」を再現するAIの発展に貢献することが期待される。
