PanoContext 全景场景理解数据集

标准摄像机视野较窄,使得上下文信息对于全景场景理解任务,不像对于目标检测那么实用。为了克服这一局限性,PanoContext 数据集应运而生,用于进行模型的训练。该数据集包括了 500 个带标注的矩形室内环境布局,例如卧室和客厅等。

MINOS 目标检测数据集

MINOS 是一个模拟器,适用于开发复杂室内环境中目标导向导航的多传感器模型。该模拟器利用复杂 3D 环境的大型数据集,并支持灵活配置多模态传感器套件。该数据集基于深度学习的导航方法进行基准测试,分析环境复杂性对导航性能的影响,并对传感器运动学习中的多模态进行了对照研究。

SUN3D 大规模 RGB-D 视频数据集

SUN3D 是一个大规模的 RGB-D 视频数据库,包含 8 个带标注的序列。每一帧都包含对场景中物体的语义分割,以及摄像机位置信息。 该数据集由 415 个在 254 个不同位置、41 个不同建筑中拍摄的序列组成。有些位置在同一天的不同时刻被多次拍摄。

iSUN 显著性检测数据集

iSUN 数据集由 SUN 数据集中视线追踪 ground truth 图像构成。其中 6,000 张图像用于训练,926 张用于验证,2,000 张用于测试。该数据集可用于研究眼球追踪系统,进而构建大规模的显著性数据集。

Matterport3D 室内场景数据集

Matterport3D 数据集是一个大型的 RGB-D 数据集,可用于室内场景理解。 该数据集包含涉及 90 个场景 (真实建筑比例) 的 10,800 个全景视角,由 194,400 个 RGB-D 图像构建而成。每个场景都是一个由多个房间和楼层组成的住宅楼,并带有表面结构、…

SUN RGB-D 场景理解数据集

SUN RGB-D 是一个关于场景理解的 RGB-D 图像数据集。 该数据集提供大量数据,用于场景理解相关算法的训练,其中的 3D 指标可以对算法进行评估,避免过度拟合到小型测试集,此外,该数据集还可用于研究跨传感器的偏差。 该数据集包括: 10,335 张不同场景的室内图片,训…

SUN Dataset 场景理解数据集

SUN Dataset 是一个用于场景理解的数据集,其涵盖 899 个类别的 130,519 张图像,发布者使用 397 个采样良好的类别进行场景识别,并以此搭配最先进的算法建立新的性能界限。 该数据集由普林斯顿视觉与机器人实验室于 2014 年发布,相关论文有《SUN Data…

Pix3D 单图像三维形状建模数据集

Pix3D 是单图像三维形状建模数据集和方法,这是一套大规模基准且具有像素级 2D-3D 对齐的图像形状对,其在形状相关任务中被广泛应用,包括重建、检索、视点估计等。 该数据集由普林斯顿大学计算机系和麻省理工学院联合发布,主要发布人有 Xingyuan Sun、Jiajun Wu…

ShapeNet – 3D 形状数据集

ShapeNet Dataset 是一个注释丰富且规模较大的 3D 形状数据集,其被用于协助计算机图形学、计算机视觉、机器人学以及其他相关学科的研究工作。 该数据集由斯坦福大学、普林斯顿大学和芝加哥丰田技术学院于 2015 年联合发布,相关论文有《ShapeNet: An Inf…

ImageNet 10 图像识别数据集

ImageNet 是目前世界上最大的图像识别数据库,主要用于机器视觉领域的图像分类和目标检测。数据集根据 WordNet 层次结构组织,其中每个节点(也称为类别)由数百甚至数千张图像组成,每个节点有平均超过 500 个图像。该数据集共包含 2.2 万个图像类别,约 1500 万张…