Command Palette
Search for a command to run...
InteractMove 三维场景人-物交互数据集
InteractMove 是北京大学计算机科学技术研究所联合北京电子科技学院于 2025 年发布的一个面向三维场景人-物交互生成的数据集,相关论文成果为「InteractMove: Text-Controlled Human-Object Interaction Generation in 3D Scenes with Movable Objects」,旨在支持和推动基于文本控制的可移动物体交互建模研究。
该数据集覆盖了 多类可移动物体、多个真实扫描场景,并提供了与场景严格对齐的人-物交互动作序列。整体数据结构可分为以下三部分:
- 三维场景(Scenes):来自 ScanNet V2 的真实室内场景,使用范围为 scene0000_00 — scene0706_00,提供多物体、多遮挡、多房间的复杂环境。
- 对齐动作(Aligned Motions):包含与场景对齐的人-物交互动作序列,包括人体姿态、手部信息与物体轨迹。
- 可移动物体网格(Object Meshes):物体模型来自 GRAB 与 BEHAVE 数据集,涵盖多类可交互物体,统一处理后嵌入各场景用于动作交互。
本项目仅提供其中的第二部分(对齐动作 / Aligned Motions),其余数据未包含在内。