Command Palette

Search for a command to run...

InteractMove 三维场景人-物交互数据集

日期

20 小时前

机构

Peking University
北京电子科技学院

论文链接

2509.23612

许可协议

MIT

InteractMove 是北京大学计算机科学技术研究所联合北京电子科技学院于 2025 年发布的一个面向三维场景人-物交互生成的数据集,相关论文成果为「InteractMove: Text-Controlled Human-Object Interaction Generation in 3D Scenes with Movable Objects」,旨在支持和推动基于文本控制的可移动物体交互建模研究。

该数据集覆盖了 多类可移动物体、多个真实扫描场景,并提供了与场景严格对齐的人-物交互动作序列。整体数据结构可分为以下三部分:

  • 三维场景(Scenes):来自 ScanNet V2 的真实室内场景,使用范围为 scene0000_00 — scene0706_00,提供多物体、多遮挡、多房间的复杂环境。
  • 对齐动作(Aligned Motions):包含与场景对齐的人-物交互动作序列,包括人体姿态、手部信息与物体轨迹。
  • 可移动物体网格(Object Meshes):物体模型来自 GRAB 与 BEHAVE 数据集,涵盖多类可交互物体,统一处理后嵌入各场景用于动作交互。

本项目仅提供其中的第二部分(对齐动作 / Aligned Motions),其余数据未包含在内。

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
InteractMove 三维场景人-物交互数据集 | 数据集 | HyperAI超神经