UNO:通用定制化图像生成

一、教程简介
UNO 项目是字节跳动智能创作团队于 2025 年 4 月发布的 AI 图像生成模型,可以同时支持单主体和多主体图像生成,用一个模型统一了多个任务,展现了强大的泛化能力。相关论文成果为「Less-to-More Generalization: Unlocking More Controllability by In-Context Generation」。
该项目支持多种数据格式和存储后端,具备强大的查询优化能力和灵活的扩展性,适用于大规模数据分析场景。 UNO 致力于通过简洁的 API 和丰富的功能特性,帮助开发者轻松构建高效的数据处理流程,为企业和开发者提供可靠的数据基础设施支持。
本教程采用资源为单卡 RTX 4090 。
👉 该项目提供了一种型号的模型:
- FLUX. 1-dev-fp 8 :这是一个 120 亿参数的整流转换器,能够从文本描述中生成图像。
项目示例

二、运行步骤
1. 启动容器后点击 API 地址即可进入 Web 界面
若不显示「模型」,这表示模型正在初始化,由于模型较大,请等待约 1-2 分钟后刷新页面。

2. 进入网页后,即可与模型展开对话
❗️重要的使用技巧:
- Number of steps: 表示模型的迭代次数或推理过程中的步数, 代表模型用于生成结果的优化步数。更高的步数通常会生成更精细的结果,但可能增加计算时间。
- Guidance: 它用于控制生成模型中条件输入(如文本或图像)对生成结果的影响程度。较高的指导值会让生成结果更加贴近输入条件,而较低的值会保留更多随机性。
- Seed: 是随机数种子,用于控制生成过程中的随机性。相同的 Seed 值可以生成相同的结果(前提是其他参数相同),这在结果复现中非常重要。
使用步骤

交流探讨
🖌️ 如果大家看到优质项目,欢迎后台留言推荐!另外,我们还建立了教程交流群,欢迎小伙伴们扫码备注【SD 教程】入群探讨各类技术问题、分享应用效果↓

引用信息
感谢 Github 用户 xxxjjjyyy1 对本教程的制作,本项目引用信息如下:
@article{wu2025less,
title={Less-to-More Generalization: Unlocking More Controllability by In-Context Generation},
author={Wu, Shaojin and Huang, Mengqi and Wu, Wenxu and Cheng, Yufeng and Ding, Fei and He, Qian},
journal={arXiv preprint arXiv:2504.02160},
year={2025}
}