UTD 全称 University of Texas at Dallas,MHAD 全称 Multimodal Human Action Dataset。这个数据集由 8 名受试者 27 个动作的视频组成。每个受试者重复一个动作 4 次,总共产生 861 个动作序列(有 3 个动作序列因受损被删除)。该数据集有四种时间同步的数据模式,分别是 RGB 视频、深度视频、骨骼位置、来自 Kinect 摄像头和可穿戴惯性传感器的惯性信号。
该数据集可以用于研究融合方法,类似于数据集使用深度相机数据和惯性传感器数据相结合的方法。也可用于多模态研究人类行为识别这一领域。
1 做种
0 下载
348 已完成
- UTD-MHAD/README.md 1.41 KB
- UTD-MHAD/README.txt 1.41 KB
- UTD-MHAD/data/Depth.zip 120.6 MB
- UTD-MHAD/data/Inertial.zip 5.1 MB
- UTD-MHAD/data/RGB.zip 1.03 GB
- UTD-MHAD/data/Sample_Code.zip 139.44 KB
- UTD-MHAD/data/Skeleton.zip 14.06 MB