OmniConsistency, développé par le Show Lab de l'Université nationale de Singapour et publié le 28 mai 2025, est un plugin d'amélioration de la cohérence générale basé sur les transformateurs de diffusion. OmniConsistency améliore considérablement la cohérence visuelle et la qualité esthétique, atteignant des performances comparables à celles du modèle commercial de pointe GPT-4o. Il comble l'écart de performance en matière de cohérence stylistique entre les modèles open source et commerciaux (tels que GPT-4o), offrant une solution économique et hautement contrôlable pour la création d'IA et favorisant la démocratisation des technologies de génération d'images. Sa compatibilité et sa simplicité d'utilisation facilitent également l'accès à son utilisation pour les développeurs et les créateurs. Des articles de recherche associés sont disponibles. OmniConsistency : apprentissage de la cohérence indépendante du style à partir de données de stylisation appariées .
Les ressources informatiques utilisées dans ce tutoriel sont une seule carte RTX A6000.
2. Affichage des effets
3. Étapes de l'opération
1. Démarrez le conteneur
Si « Bad Gateway » s'affiche, cela signifie que le modèle est en cours d'initialisation. Étant donné que le modèle est grand, veuillez patienter environ 2 à 3 minutes et actualiser la page.
2. Exemples d'utilisation
Une fois que vous entrez sur la page Web, vous pouvez interagir avec le modèle.
Si vous utilisez LoRA personnalisé, le téléchargement du modèle en ligne prend du temps, ce qui rallonge sa génération. Veuillez patienter. De plus, le téléchargement du modèle peut échouer en raison de problèmes de réseau. Il est recommandé de redémarrer le conteneur et de télécharger à nouveau le modèle.
Générer des résultats
4. Discussion
🖌️ Si vous voyez un projet de haute qualité, veuillez laisser un message en arrière-plan pour le recommander ! De plus, nous avons également créé un groupe d’échange de tutoriels. Bienvenue aux amis pour scanner le code QR et commenter [Tutoriel SD] pour rejoindre le groupe pour discuter de divers problèmes techniques et partager les résultats de l'application↓
Informations sur la citation
Merci à l'utilisateur Github SuperYang Déploiement de ce tutoriel. Les informations de citation pour ce projet sont les suivantes :
@inproceedings{Song2025OmniConsistencyLS,
title={OmniConsistency: Learning Style-Agnostic Consistency from Paired Stylization Data},
author={Yiren Song and Cheng Liu and Mike Zheng Shou},
year={2025},
url={https://api.semanticscholar.org/CorpusID:278905729}
}
Build AI with AI
From idea to launch — accelerate your AI development with free AI co-coding, out-of-the-box environment and best price of GPUs.
OmniConsistency, développé par le Show Lab de l'Université nationale de Singapour et publié le 28 mai 2025, est un plugin d'amélioration de la cohérence générale basé sur les transformateurs de diffusion. OmniConsistency améliore considérablement la cohérence visuelle et la qualité esthétique, atteignant des performances comparables à celles du modèle commercial de pointe GPT-4o. Il comble l'écart de performance en matière de cohérence stylistique entre les modèles open source et commerciaux (tels que GPT-4o), offrant une solution économique et hautement contrôlable pour la création d'IA et favorisant la démocratisation des technologies de génération d'images. Sa compatibilité et sa simplicité d'utilisation facilitent également l'accès à son utilisation pour les développeurs et les créateurs. Des articles de recherche associés sont disponibles. OmniConsistency : apprentissage de la cohérence indépendante du style à partir de données de stylisation appariées .
Les ressources informatiques utilisées dans ce tutoriel sont une seule carte RTX A6000.
2. Affichage des effets
3. Étapes de l'opération
1. Démarrez le conteneur
Si « Bad Gateway » s'affiche, cela signifie que le modèle est en cours d'initialisation. Étant donné que le modèle est grand, veuillez patienter environ 2 à 3 minutes et actualiser la page.
2. Exemples d'utilisation
Une fois que vous entrez sur la page Web, vous pouvez interagir avec le modèle.
Si vous utilisez LoRA personnalisé, le téléchargement du modèle en ligne prend du temps, ce qui rallonge sa génération. Veuillez patienter. De plus, le téléchargement du modèle peut échouer en raison de problèmes de réseau. Il est recommandé de redémarrer le conteneur et de télécharger à nouveau le modèle.
Générer des résultats
4. Discussion
🖌️ Si vous voyez un projet de haute qualité, veuillez laisser un message en arrière-plan pour le recommander ! De plus, nous avons également créé un groupe d’échange de tutoriels. Bienvenue aux amis pour scanner le code QR et commenter [Tutoriel SD] pour rejoindre le groupe pour discuter de divers problèmes techniques et partager les résultats de l'application↓
Informations sur la citation
Merci à l'utilisateur Github SuperYang Déploiement de ce tutoriel. Les informations de citation pour ce projet sont les suivantes :
@inproceedings{Song2025OmniConsistencyLS,
title={OmniConsistency: Learning Style-Agnostic Consistency from Paired Stylization Data},
author={Yiren Song and Cheng Liu and Mike Zheng Shou},
year={2025},
url={https://api.semanticscholar.org/CorpusID:278905729}
}
Build AI with AI
From idea to launch — accelerate your AI development with free AI co-coding, out-of-the-box environment and best price of GPUs.