R1-OneVision هو نموذج استدلال متعدد الوسائط واسع النطاق، أطلقه فريق من جامعة تشجيانغ في فبراير 2025. يعتمد هذا النموذج على Qwen2.5-VL، وتم ضبطه بدقة على مجموعة بيانات R1-OneVision، وهو يتفوق في التعامل مع مهام الاستدلال البصري المعقدة، حيث يدمج البيانات المرئية والنصية بسلاسة. يُظهر أداءً استثنائيًا في الرياضيات والعلوم وفهم الصور العميق والاستدلال المنطقي، ويمكن استخدامه كمساعد ذكاء اصطناعي قوي لحل مختلف المشكلات. تتوفر أوراق بحثية ذات صلة. R1-Onevision: تطوير التفكير المتعدد الوسائط المعمم من خلال الصياغة الرسمية متعددة الوسائط .
يستخدم هذا البرنامج التعليمي R1-Onevision-7B كعرض توضيحي، ويستخدم مورد الحوسبة RTX 4090.
2. خطوات التشغيل
1. بعد بدء تشغيل الحاوية، انقر فوق عنوان API للدخول إلى واجهة الويب
إذا تم عرض "بوابة سيئة"، فهذا يعني أن النموذج قيد التهيئة. يرجى الانتظار لمدة 1-2 دقيقة ثم قم بتحديث الصفحة.
2. العرض التوضيحي الوظيفي
معلومات الاستشهاد
شكرًا لمستخدم GitHub بويسوو لإنتاج هذا البرنامج التعليمي، معلومات مرجعية للمشروع هي كما يلي:
@article{yang2025r1onevision,
title={R1-Onevision: Advancing Generalized Multimodal Reasoning through Cross-Modal Formalization},
author={Yi Yang and Xiaoxuan He and Hongkun Pan and Xiyan Jiang and Yan Deng and Xingtao Yang and Haoyu Lu and Dacheng Yin and Fengyun Rao and Minfeng Zhu and Bo Zhang and Wei Chen},
journal={arXiv preprint arXiv:2503.10615},
year={2025},
}
التبادل والمناقشة
🖌️ إذا رأيت مشروعًا عالي الجودة، فيرجى ترك رسالة في الخلفية للتوصية به! بالإضافة إلى ذلك، قمنا أيضًا بتأسيس مجموعة لتبادل الدروس التعليمية. مرحبًا بالأصدقاء لمسح رمز الاستجابة السريعة وإضافة [برنامج تعليمي SD] للانضمام إلى المجموعة لمناقشة المشكلات الفنية المختلفة ومشاركة نتائج التطبيق↓
تم المساهمة في هذا الدفتر من قبل مستخدمي المجتمع وهو مخصص لأغراض تعليمية وإعلامية فقط. إذا كان أي محتوى ينطوي على انتهاك لحقوق النشر، يرجى الاتصال بنا على [email protected] للمراجعة والإزالة الفورية.
بناء الذكاء الاصطناعي بالذكاء الاصطناعي
من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.
R1-OneVision هو نموذج استدلال متعدد الوسائط واسع النطاق، أطلقه فريق من جامعة تشجيانغ في فبراير 2025. يعتمد هذا النموذج على Qwen2.5-VL، وتم ضبطه بدقة على مجموعة بيانات R1-OneVision، وهو يتفوق في التعامل مع مهام الاستدلال البصري المعقدة، حيث يدمج البيانات المرئية والنصية بسلاسة. يُظهر أداءً استثنائيًا في الرياضيات والعلوم وفهم الصور العميق والاستدلال المنطقي، ويمكن استخدامه كمساعد ذكاء اصطناعي قوي لحل مختلف المشكلات. تتوفر أوراق بحثية ذات صلة. R1-Onevision: تطوير التفكير المتعدد الوسائط المعمم من خلال الصياغة الرسمية متعددة الوسائط .
يستخدم هذا البرنامج التعليمي R1-Onevision-7B كعرض توضيحي، ويستخدم مورد الحوسبة RTX 4090.
2. خطوات التشغيل
1. بعد بدء تشغيل الحاوية، انقر فوق عنوان API للدخول إلى واجهة الويب
إذا تم عرض "بوابة سيئة"، فهذا يعني أن النموذج قيد التهيئة. يرجى الانتظار لمدة 1-2 دقيقة ثم قم بتحديث الصفحة.
2. العرض التوضيحي الوظيفي
معلومات الاستشهاد
شكرًا لمستخدم GitHub بويسوو لإنتاج هذا البرنامج التعليمي، معلومات مرجعية للمشروع هي كما يلي:
@article{yang2025r1onevision,
title={R1-Onevision: Advancing Generalized Multimodal Reasoning through Cross-Modal Formalization},
author={Yi Yang and Xiaoxuan He and Hongkun Pan and Xiyan Jiang and Yan Deng and Xingtao Yang and Haoyu Lu and Dacheng Yin and Fengyun Rao and Minfeng Zhu and Bo Zhang and Wei Chen},
journal={arXiv preprint arXiv:2503.10615},
year={2025},
}
التبادل والمناقشة
🖌️ إذا رأيت مشروعًا عالي الجودة، فيرجى ترك رسالة في الخلفية للتوصية به! بالإضافة إلى ذلك، قمنا أيضًا بتأسيس مجموعة لتبادل الدروس التعليمية. مرحبًا بالأصدقاء لمسح رمز الاستجابة السريعة وإضافة [برنامج تعليمي SD] للانضمام إلى المجموعة لمناقشة المشكلات الفنية المختلفة ومشاركة نتائج التطبيق↓
تم المساهمة في هذا الدفتر من قبل مستخدمي المجتمع وهو مخصص لأغراض تعليمية وإعلامية فقط. إذا كان أي محتوى ينطوي على انتهاك لحقوق النشر، يرجى الاتصال بنا على [email protected] للمراجعة والإزالة الفورية.
بناء الذكاء الاصطناعي بالذكاء الاصطناعي
من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.