数据集正文内容。仅供测试使用
分类: 动作分类
超神经测试用数据集
Toyota Smarthome Trimmed 动作分类数据集
Toyota Smarthome Trimmed 是为活动分类任务设计的数据集,涉及 31 项活动。视频基于单个活动剪辑,共产生了 16,115 个 RGB+D 短视频片段。活动行为是自然进行的,不受试验控制。 因此,该数据集提出了较大的挑战性:类别间差异较大、类别很不平衡,活动…
EgoHands 手部复杂活动识别数据集
EgoHands 是一个识别复杂的手部动作的数据集。数据集包含 48 个谷歌眼镜视频,其中包含两个人之间复杂的第一人称互动。数据集的主要目的是能够在第一人称电脑影像中用更好的,数据驱动的的方式理解手部动作,可以从语义上区分观察者的手和其他人的手,以及区分左手和右手。演员自由参与一…
EgoGesture 手势识别数据集
EgoGesture 是一个大规模识别手势的数据集。该数据集规模大、富于变化且具有极高真实性,能够训练深度神经网络。数据集用于以自我为中心的手势识别。该数据集不仅为分段数据中的手势分类提供测试台,还用于连续数据中的手势检测。 数据集包括: 2,081 个 RGB-D 视频2,41…
HAA500 原子动作数据集
HAA500 全称 Human-Centric Atomic Action Dataset,是一个具有精选视频的以人为中心的原子动作(Atomic Action) 。该数据集用于对超过 591k 个带标注的帧进行动作识别,共涉及 500 个类别。与现有的原子动作数据集不同,HAA…
BABEL 动作分类数据集
BABEL 是一个大规模数据集,其中的语言标注描述了 mocap 序列中正在进行的动作。BABEL 包括来自AMASS 数据集的约 43 小时的 mocap 序列的动作标注。动作标注有两个抽象层次--序列标注描述序列中的整体动作,而帧标注描述序列中每一帧的所有动作。每一帧标注都与…
Kinetics-600 动作分类数据集
Kinetics-600 是一个大规模动作识别数据集,是 Kinetics-400 数据集的一个扩展。该数据集由涵盖 600 个动作类别的约 48 万个视频组成。这些视频被分为 390K、30K、60K,分别用于训练集、验证集和测试集。数据集中的每个视频都是 10 秒动作片段,由…
AQA-7 运动数据集
AQA-7 包含 7 种不同的动作,总共包括 1,106 个动作样本,其质量分数由专家评委测量。数据是在夏季和冬季奥运会期间捕获的。 7 个动作包括:singles diving-10m platform, gymnastic vault, big air skiing, bi…
V-COCO 人-物交互检测数据集
V-COCO 全称 Verbs in COCO,是一个建立在 MS COCO 数据集基础上的数据集,用于人与物体的交互检测。 该数据集提供了 10,346 张图片(其中 2,533 张用于训练,2,867 张用于验证,4,946 张用于测试)和16,199个人物实例。每个人物都有…
YouCook2 烹饪视频数据集
YouCook2 是视觉社区中最大的任务导向的教学视频数据集。该数据集由涉及 89 个食谱的 2,000 个YouTube 视频组成,均为未经剪辑的长视频。视频总时长为 176 小时,单个视频的平均长度为 5.26 分钟。每段视频的拍摄时间都在 10 分钟以内,由个人在自己家里用…
Kinetics 人类行为数据集
Kinetics 是一个大规模且高质量的以人类动作为主的 YouTube 视频链接数据集,包含 65 万个视频片段,依据数据集版本不同,分别涵盖 400/600/700 种人类行为分类。 这些动作以人为主,涵盖内容广泛,包括人与物体的交互,比如弹奏乐器,以及人与人之间的互动,如握…
Charades 日常活动数据集
Charades 数据集包含人们进行日常活动的真实视频。该数据集由 9,848 个平均长度为 30 秒的日常室内活动视频组成,涉及 15 种室内场景、46 个对象类别的交互,包含 30 个动词及 157 个动作类别。 该数据集中的每个视频都带有标注:多个自定义文本描述、动作标签、…
ActivityNet 数据集
ActivityNet 数据集包含 200 种不同类型的活动、共计 849 小时的 YouTube 视频。就活动类目和视频数量而言,ActivityNet 是迄今为止最大的时序活动检测 (temporal activity detection) 基准。 ActivityNet V…