HyperAI超神经

OmniConsistency:GPT-4o 级的人物风格迁移模型

一、教程简介

GitHub Stars

OmniConsistency 是由新加坡国立大学 Show Lab 实验室于 2025 年 5 月 28 日发布的基于扩散变换器的通用一致性增强插件,OmniConsistency 显著提升了视觉连贯性和美学质量,实现了与商业最先进模型 GPT-4o 相当的性能。填补了开源模型与商业模型(如 GPT-4o)在风格一致性上的性能差距,为 AI 创作提供了低成本、高可控的解决方案,推动了图像生成技术的民主化。其兼容性和即插即用特性也降低了开发者与创作者的使用门槛。相关论文成果为「OmniConsistency: Learning Style-Agnostic Consistency from Paired Stylization Data」。

该教程算力资源采用单卡 RTX A6000 。

二、效果展示

三、运行步骤

1. 启动容器

若显示「Bad Gateway」,这表示模型正在初始化,由于模型较大,请等待约 2-3 分钟后刷新页面。

2. 使用示例

进入网页后,即可与模型进行交互。

若使用 Custom LoRA,模型需要时间在线下载,因此需要更长的生成时间,请耐心等待。且下载模型过程中可能由于网络的问题导致模型下载失败,建议重启容器后重新下载模型。

生成结果

四、交流探讨

🖌️ 如果大家看到优质项目,欢迎后台留言推荐!另外,我们还建立了教程交流群,欢迎小伙伴们扫码备注【SD 教程】入群探讨各类技术问题、分享应用效果↓

引用信息

感谢 Github 用户 SuperYang  对本教程的部署。本项目引用信息如下:

@inproceedings{Song2025OmniConsistencyLS,
  title={OmniConsistency: Learning Style-Agnostic Consistency from Paired Stylization Data},
  author={Yiren Song and Cheng Liu and Mike Zheng Shou},
  year={2025},
  url={https://api.semanticscholar.org/CorpusID:278905729}
}