Command Palette
Search for a command to run...
THINGS-data,一个用于研究人类大脑与行为中物体表征的多模态大规模数据集
THINGS-data,一个用于研究人类大脑与行为中物体表征的多模态大规模数据集
Martin N Hebart Oliver Contier Lina Teichmann Adam H Rockter Charles Y Zheng Alexis Kidder Anna Corriveau Maryam Vaziri-Pashkam Chris I Baker
摘要
理解物体表征需要对视觉世界中的物体进行广泛而全面的采样,并结合密集的脑活动与行为测量数据。在此,我们介绍了 THINGS-data——一项面向人类的大规模多模态神经影像与行为数据集,包含密集采样的功能性磁共振成像(fMRI)和脑磁图(MEG)记录,以及针对数千张照片图像所生成的470万条相似性判断数据,涵盖多达1,854个物体概念。THINGS-data在物体标注的丰富性与广度方面独具特色,使得大规模验证各类科学假设成为可能,同时可对以往研究结果的可重复性进行系统评估。除了各独立数据集所蕴含的独特洞见之外,THINGS-data的多模态特性使其能够实现数据融合,从而为物体加工机制提供比以往更为全面的视角。我们的分析验证了数据集的高质量,并展示了五个基于假设驱动与数据驱动的研究范例。THINGS-data构成了THINGS计划(https://things-initiative.org)的核心公开发布成果,旨在弥合学科间鸿沟,推动认知神经科学的发展。