MAGI-1: أول نموذج توليد فيديو ذاتي الانحدار واسع النطاق في العالم
1. مقدمة البرنامج التعليمي

Magi-1 هو أول نموذج كبير لتوليد الفيديو ذاتي الانحدار في العالم، طورته شركة Send AI الصينية للذكاء الاصطناعي، وأُطلق رسميًا في 21 أبريل 2025. يُولّد هذا النموذج الفيديو عن طريق التنبؤ الانحداري التلقائي بسلسلة من كتل الفيديو، المُعرّفة كمقاطع ثابتة الطول من الإطارات المتتالية. تم تدريب MAGI-1 على إزالة الضوضاء من كل كتلة ضوضاء تزداد رتابة بمرور الوقت، ويدعم النمذجة الزمنية السببية، ويدعم بشكل طبيعي توليد البيانات المتدفقة. يحقق أداءً قويًا في مهام تحويل الصور إلى فيديو المشروطة بتعليمات نصية، مما يوفر اتساقًا زمنيًا عاليًا وقابلية للتوسع، ويتحقق ذلك من خلال ابتكارات خوارزمية متعددة ومجموعة بنية تحتية مخصصة. نتائج البحث ذات الصلة هي:MAGI-1: إنشاء فيديو انحداري تلقائي على نطاق واسع".
يستخدم هذا البرنامج التعليمي الموارد لبطاقة RTX 4090 واحدة، والنص يدعم اللغة الإنجليزية فقط.
2. أمثلة المشاريع
وضع النص إلى الفيديو

وضع الصورة إلى الفيديو

وضع الفيديو إلى الفيديو

3. خطوات التشغيل
1. بعد بدء تشغيل الحاوية، انقر فوق عنوان API للدخول إلى واجهة الويب

2. بعد الدخول إلى صفحة الويب، يمكنك بدء حوار لغوي مع النموذج
إذا ظهرت رسالة "بوابة سيئة"، فهذا يعني أن النموذج قيد التهيئة. نظرًا لكبر حجم النموذج، يُرجى الانتظار دقيقة أو دقيقتين ثم تحديث الصفحة. يستغرق النموذج حوالي خمس دقائق لإنشاء فيديو، لذا يُرجى التحلي بالصبر.
كيفية الاستخدام
نموذج تحويل النص إلى فيديو
إنشاء إطارات فيديو تحتوي على محتوى نصي

نموذج الصورة إلى فيديو
أدخل صورة كمرجع لإنشاء إطار فيديو

نموذج الفيديو إلى الفيديو
أدخل مقطع فيديو كمرجع لإنشاء إطارات الفيديو

في ملف runtime_config الخاص بملف 4.5B_distill_quant_config.json في المسار /openbayes/home/MAGI-1/example/4.5B، يمكنك تغيير معلمات الفيديو الناتج، مثل num_frames، وvideo_size_h، وvideo_size_w، وfps.
4. المناقشة
🖌️ إذا رأيت مشروعًا عالي الجودة، فيرجى ترك رسالة في الخلفية للتوصية به! بالإضافة إلى ذلك، قمنا أيضًا بتأسيس مجموعة لتبادل الدروس التعليمية. مرحبًا بالأصدقاء لمسح رمز الاستجابة السريعة وإضافة [برنامج تعليمي SD] للانضمام إلى المجموعة لمناقشة المشكلات الفنية المختلفة ومشاركة نتائج التطبيق↓

الخامس. معلومات الاستشهاد
شكرًا لمستخدم GitHub كجاسدك لنشر هذا البرنامج التعليمي، معلومات مرجع المشروع هي كما يلي:
@misc{ai2025magi1autoregressivevideogeneration,
title={MAGI-1: Autoregressive Video Generation at Scale},
author={Sand. ai and Hansi Teng and Hongyu Jia and Lei Sun and Lingzhi Li and Maolin Li and Mingqiu Tang and Shuai Han and Tianning Zhang and W. Q. Zhang and Weifeng Luo and Xiaoyang Kang and Yuchen Sun and Yue Cao and Yunpeng Huang and Yutong Lin and Yuxin Fang and Zewei Tao and Zheng Zhang and Zhongshu Wang and Zixun Liu and Dai Shi and Guoli Su and Hanwen Sun and Hong Pan and Jie Wang and Jiexin Sheng and Min Cui and Min Hu and Ming Yan and Shucheng Yin and Siran Zhang and Tingting Liu and Xianping Yin and Xiaoyu Yang and Xin Song and Xuan Hu and Yankai Zhang and Yuqiao Li},
year={2025},
eprint={2505.13211},
archivePrefix={arXiv},
primaryClass={cs.CV},
url={https://arxiv.org/abs/2505.13211},
}