HyperAIHyperAI

Command Palette

Search for a command to run...

THINGS-data,一个用于研究人类大脑与行为中物体表征的多模态大规模数据集

Martin N Hebart Oliver Contier Lina Teichmann Adam H Rockter Charles Y Zheng Alexis Kidder Anna Corriveau Maryam Vaziri-Pashkam Chris I Baker

摘要

理解物体表征需要对视觉世界中的物体进行广泛而全面的采样,并结合密集的脑活动与行为测量数据。在此,我们介绍了 THINGS-data——一项面向人类的大规模多模态神经影像与行为数据集,包含密集采样的功能性磁共振成像(fMRI)和脑磁图(MEG)记录,以及针对数千张照片图像所生成的470万条相似性判断数据,涵盖多达1,854个物体概念。THINGS-data在物体标注的丰富性与广度方面独具特色,使得大规模验证各类科学假设成为可能,同时可对以往研究结果的可重复性进行系统评估。除了各独立数据集所蕴含的独特洞见之外,THINGS-data的多模态特性使其能够实现数据融合,从而为物体加工机制提供比以往更为全面的视角。我们的分析验证了数据集的高质量,并展示了五个基于假设驱动与数据驱动的研究范例。THINGS-data构成了THINGS计划(https://things-initiative.org)的核心公开发布成果,旨在弥合学科间鸿沟,推动认知神经科学的发展


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供