Command Palette

Search for a command to run...

2 个月前

VoxHammer:无需训练的原生3D空间中精确且连贯的3D编辑

Lin Li Zehuan Huang Haoran Feng Gengxiong Zhuang Rui Chen Chunchao Guo Lu Sheng

VoxHammer:无需训练的原生3D空间中精确且连贯的3D编辑

摘要

指定区域的3D局部编辑在游戏产业与机器人交互领域至关重要。现有方法通常通过编辑多视角渲染图像,再重建3D模型,但在精确保留未编辑区域及整体一致性方面面临挑战。受结构化3D生成模型的启发,我们提出VoxHammer——一种无需训练的新方法,可在3D隐空间中实现精确且一致的编辑。给定一个3D模型,VoxHammer首先预测其反演轨迹,并在每个时间步获取对应的反演隐变量(inverted latents)与键值令牌(key-value tokens)。随后,在去噪与编辑阶段,我们将保留区域的去噪特征替换为相应的反演隐变量及缓存的键值令牌。通过保留这些上下文特征,该方法确保了未编辑区域的一致性重建,并实现了编辑部分与整体结构的连贯融合。为评估保留区域的一致性,我们构建了Edit3D-Bench——一个由人工标注的基准数据集,包含数百个样本,每个样本均配有精细标注的3D编辑区域。实验结果表明,VoxHammer在保留区域的3D一致性及整体生成质量方面显著优于现有方法。本方法有望用于合成高质量的编辑配对数据,为上下文感知的3D生成任务奠定数据基础。项目主页详见:https://huanngzh.github.io/VoxHammer-Page/。

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供