Command Palette
Search for a command to run...
THINGS-EEG EEGデータセット
THINGS-EEGは、米国国立衛生研究所(NIH)の国立精神衛生研究所、ドイツのマックス・プランク人間認知・脳科学研究所、ギーセン大学医学部などによって公開されている、物体認知研究のための脳波(EEG)データセットです。50人の被験者が物体の画像を見ている際のEEG活動を記録し、物体処理の時間的ダイナミクスと認知表現を分析するために使用されています。
このデータセットはTHINGS-dataに属しており、関連する研究論文は次のとおりです。THINGS-dataは、人間の脳と行動における物体表現を調査するための大規模データセットのマルチモーダルコレクションです。THINGS データには、1,854 個のオブジェクト コンセプトと、手動で選択されラベル付けされた自然シーン オブジェクトの画像 26,107 個が含まれています。
実験では、参加者はTHINGS画像データベースから抽出した刺激の代表的なサブセット(1,854の物体概念を網羅した22,248枚の画像)を視聴しました。画像はラピッド・シリアル・ビジュアル・プレゼンテーション(RSVP)方式で提示され、参加者は中心注視を維持する必要がありました。一部の画像は、神経表現の安定性を分析するために繰り返し提示されました。
データセットには以下のものも含まれています。
- 生のEEG信号
- 前処理されたEEGデータ
- 表現行列(RDM)を構築するために使用できる導関数
THINGS-EEG は、物体の視覚的表現の時間的ダイナミクス、人間の認知の構造、fMRI/MEG データとのクロスモーダルアライメントを研究するための豊富なデータ基盤を提供します。