UTD 全称 University of Texas at Dallas,MHAD 全称 Multimodal Human Action Dataset 。这个数据集由 8 名受试者 27 个动作的视频组成。每个受试者重复一个动作 4 次,总共产生 861 个动作序列(有 3 个动作序列因受损被删除)。该数据集有四种时间同步的数据模式,分别是 RGB 视频、深度视频、骨骼位置、来自 Kinect 摄像头和可穿戴惯性传感器的惯性信号。
该数据集可以用于研究融合方法,类似于数据集使用深度相机数据和惯性传感器数据相结合的方法。也可用于多模态研究人类行为识别这一领域。
做种 2
下载中 0
已完成 416
总下载 665