Back to Headlines

谷歌重磅发布BlenderFusion:重塑3D视觉编辑与生成合成新范式

3 天前

谷歌近日推出名为BlenderFusion的全新框架,旨在革新3D视觉编辑与生成合成技术。该工具针对当前图像生成模型在复杂场景中对多元素精确控制能力不足的问题,提供了一套高效、直观的解决方案。 BlenderFusion采用三阶段工作流程:分层、编辑与合成。在分层阶段,系统通过先进的视觉基础模型(如SAM2和DepthPro)从输入的2D图像中自动识别并提取可编辑的3D对象,生成精确的点云数据,为后续操作奠定基础。这一过程显著提升了物体识别与三维重建的准确性。 进入编辑阶段,系统将提取的3D对象导入Blender环境,用户可对物体的位置、姿态、大小进行自由调整,还能精细修改材质、光照和外观属性。借助Blender强大的建模与动画功能,创作者能够实现对场景中每个元素的精准操控,编辑结果实时反映在渲染效果中,极大提升创作效率。 最后在合成阶段,BlenderFusion利用优化后的扩散模型,将编辑后的3D场景与原始背景无缝融合,生成高质量、视觉连贯的最终图像。该阶段特别强化了对细节信息的保留与整合能力,确保合成结果自然真实。 该项目整合了前沿的3D重建技术与生成式AI,实现了从2D图像到可编辑3D场景的高效转化,为设计师、艺术家和内容创作者提供了强大的新工具。其开源项目地址为https://blenderfusion.github.io/。BlenderFusion的推出,标志着AI驱动的3D视觉创作迈入新阶段,有望在影视、游戏、虚拟现实等领域广泛应用。

Related Links