Command Palette
Search for a command to run...
THINGS-data:人間の脳および行動における物体表現を調査するための多モーダル大規模データセット群
THINGS-data:人間の脳および行動における物体表現を調査するための多モーダル大規模データセット群
Martin N Hebart Oliver Contier Lina Teichmann Adam H Rockter Charles Y Zheng Alexis Kidder Anna Corriveau Maryam Vaziri-Pashkam Chris I Baker
概要
オブジェクト表現を理解するには、視覚世界に存在するオブジェクトを広範かつ包括的にサンプリングし、脳活動および行動データを高密度で測定する必要がある。本研究では、人間を対象とした大規模な神経画像データおよび行動データのマルチモーダルなデータセット「THINGS-data」を提示する。このデータセットは、高密度にサンプリングされた機能的MRIおよび磁気脳波計測(MEG)の記録に加え、数千枚の写真画像に対して最大1,854のオブジェクト概念について470万件の類似性判断データを含んでいる。THINGS-dataは、豊富にアノテーションされたオブジェクトの広範なカバーを特徴としており、これまでに得られた知見の再現性を評価しつつ、多数の仮説を大規模に検証することが可能である。個々のデータセットがもたらす独自の知見に加え、THINGS-dataのマルチモーダル性により、これまでにない広範な視点からオブジェクト処理のメカニズムを統合的に探ることが可能となる。我々の分析により、データセットの高品質さが示され、仮説駆動型およびデータ駆動型の応用例として5つの実例が提示されている。THINGS-dataは、学際的連携を促進し、認知神経科学の発展を図るためのTHINGSイニシアチブ(https://things-initiative.org)の核心的な公開データセットである。