OmniConsistency هو إضافة شاملة لتعزيز الاتساق، مبنية على محول الانتشار، أصدرها مختبر Show Lab التابع للجامعة الوطنية في سنغافورة في 28 مايو 2025. يُحسّن OmniConsistency بشكل ملحوظ التماسك البصري والجودة الجمالية، محققًا أداءً يُضاهي أحدث طراز تجاري GPT-4o. يُسد هذا الاتساق فجوة الأداء في اتساق الأسلوب بين النماذج مفتوحة المصدر والنماذج التجارية (مثل GPT-4o)، ويوفر حلاً منخفض التكلفة وسهل التحكم لإنشاء الذكاء الاصطناعي، ويعزز انتشار تقنية توليد الصور. كما أن توافقه وميزات التوصيل والتشغيل تُسهّل على المطورين والمبدعين استخدامه. نتائج البحث ذات الصلة هي:OmniConsistency: تعلم الاتساق غير المرتبط بالأسلوب من بيانات الأسلوب المزدوج".
موارد الحوسبة المستخدمة في هذا البرنامج التعليمي هي بطاقة RTX A6000 واحدة.
2. عرض التأثير
3. خطوات التشغيل
1. ابدأ تشغيل الحاوية
إذا تم عرض "بوابة سيئة"، فهذا يعني أن النموذج قيد التهيئة. نظرًا لأن النموذج كبير الحجم، يرجى الانتظار لمدة 2-3 دقائق وتحديث الصفحة.
2. أمثلة الاستخدام
بمجرد دخولك إلى صفحة الويب، يمكنك التفاعل مع النموذج.
إذا كنت تستخدم LoRA مخصصًا، فسيستغرق تنزيل النموذج عبر الإنترنت وقتًا أطول، لذا يستغرق إنشاؤه وقتًا أطول. يُرجى الانتظار بصبر. بالإضافة إلى ذلك، قد يفشل تنزيل النموذج بسبب مشاكل في الشبكة أثناء عملية التنزيل. يُنصح بإعادة تشغيل الحاوية وتنزيل النموذج مرة أخرى.
توليد النتائج
4. المناقشة
🖌️ إذا رأيت مشروعًا عالي الجودة، فيرجى ترك رسالة في الخلفية للتوصية به! بالإضافة إلى ذلك، قمنا أيضًا بتأسيس مجموعة لتبادل الدروس التعليمية. مرحبًا بالأصدقاء لمسح رمز الاستجابة السريعة وإضافة [برنامج تعليمي SD] للانضمام إلى المجموعة لمناقشة المشكلات الفنية المختلفة ومشاركة نتائج التطبيق↓
معلومات الاستشهاد
شكرًا لمستخدم Github سوبر يانغ نشر هذا البرنامج التعليمي. معلومات الاستشهاد لهذا المشروع هي كما يلي:
@inproceedings{Song2025OmniConsistencyLS,
title={OmniConsistency: Learning Style-Agnostic Consistency from Paired Stylization Data},
author={Yiren Song and Cheng Liu and Mike Zheng Shou},
year={2025},
url={https://api.semanticscholar.org/CorpusID:278905729}
}