Command Palette
Search for a command to run...
THINGS-Daten, eine multimodale Sammlung großer Datensätze zur Untersuchung objektbasierter Repräsentationen im menschlichen Gehirn und Verhalten
THINGS-Daten, eine multimodale Sammlung großer Datensätze zur Untersuchung objektbasierter Repräsentationen im menschlichen Gehirn und Verhalten
Martin N Hebart Oliver Contier Lina Teichmann Adam H Rockter Charles Y Zheng Alexis Kidder Anna Corriveau Maryam Vaziri-Pashkam Chris I Baker
Zusammenfassung
Die Erfassung objektbasierter Repräsentationen erfordert eine umfassende, breit angelegte Stichprobe der Objekte in unserer visuellen Welt sowie dichte Messungen der Hirnaktivität und des Verhaltens. Hier präsentieren wir THINGS-data, eine multimodale Sammlung großskaliger neuroimaging- und Verhaltensdaten bei Menschen, die dicht beprochte funktionelle MRT- und magnetoenzephalographische Aufzeichnungen sowie 4,7 Millionen Ähnlichkeitsurteile zu Tausenden fotografischer Bilder für bis zu 1.854 Objektkonzepte umfasst. THINGS-data ist einzigartig durch die Breite der reichlich annotierten Objekte, was die Prüfung einer Vielzahl von Hypothesen in großem Maßstab ermöglicht sowie die Reproduzierbarkeit früherer Befunde ermöglicht. Abgesehen von den einzigartigen Erkenntnissen, die jeder einzelne Datensatz bietet, erlaubt die Multimodalität von THINGS-data die Kombination der Datensätze und damit einen viel umfassenderen Einblick in die Verarbeitung von Objekten, als dies bisher möglich war. Unsere Analysen belegen die hohe Qualität der Datensätze und liefern fünf Beispiele für hypothese- und datengetriebene Anwendungen. THINGS-data bildet den zentralen öffentlichen Datensatz der THINGS-Initiative (https://things-initiative.org), die darauf abzielt, die Kluft zwischen Disziplinen zu überbrücken und die kognitive Neurowissenschaft voranzutreiben.