مايكروسوفت تطلق DVD: ذكاء اصطناعي متقدم لتقسيم وإستكشاف الفيديوهات الطويلة بدقة عالية
شركة مايكروسوفت أعلنت عن إطلاق نظام ذكاء اصطناعي جديد باسم Deep Video Discovery (DVD)، يهدف إلى تحسين استكشاف الفيديوهات الطويلة. يعمل النظام من خلال تقسيم الفيديوهات الطويلة إلى مقاطع أقصر، مع التعامل مع كل مشهد كبيئة مستقلة. يستخدم DVD قدرات التحليل والاستدلال المتقدمة للنماذج اللغوية الكبيرة (LLM) لمعالجة الأسئلة ووضع خطط للحصول على المعلومات المطلوبة من البيئات. في التجارب التي أجريت باستخدام أحدث نموذج استدلال من شركة OpenAI، حقق DVD دقة تبلغ 74.2٪ في معايير LVBench، وهي نسبة تعتبر تحسنًا كبيرًا مقارنة بالأداء السابق في هذا المجال. وتعد LVBench مجموعة من التحديات التي تقاس فيها قدرة أنظمة الذكاء الاصطناعي على استخراج المعلومات من الفيديوهات الطويلة. هذا الإنجاز يأتي نتيجة التعاون بين مايكروسوفت وفريق باحثين متخصصين في تطوير النماذج اللغوية والأنظمة الذكية. وقد صُمم DVD ليكون قادرًا على التعامل مع مجموعة متنوعة من الفيديوهات، بما في ذلك المحاضرات والندوات والبرامج التلفزيونية، مما يجعله أداة قوية للاستخدام في مجالات التعليم والبحث والإعلام. سيتم توفير DVD كخادم مفتوح المصدر تحت اسم MCP Server، مما يتيح للأكاديميين والمطورين فرصة استخدامه وتطويره بشكل أكبر. هذه الخطوة تعكس التزام مايكروسوفت بتعزيز البحث والابتكار في مجال الذكاء الاصطناعي وتقديم أدوات مفتوحة للمجتمع العلمي والتقني. يُتوقع أن يساهم DVD في تطوير طرق جديدة لتحليل وفهم المحتوى المرئي، مما قد يؤدي إلى تحسينات كبيرة في خدمات البحث والتصفح عبر الفيديو. كما يمكن أن يساعد في تعزيز تجارب المستخدمين في منصات الفيديو الشهيرة مثل YouTube وVimeo، حيث يمكن استخدامه لتقديم معلومات مفصلة وموجهة بدقة حول محتوى الفيديو. بالإضافة إلى ذلك، يمكن لـ DVD أن يكون أداة قيمة في مجال التعليم، حيث يمكنه تحليل الفيديوهات التعليمية وتقديم ملخصات وتوضيحات تفاعلية تسهل عملية التعلم. وفي مجال الإعلام، يمكن أن يساعد في تحليل التغطيات الإخبارية والبرامج الوثائقية، مما يوفر رؤى شاملة للمحتوى. مايكروسوفت تواصل تعزييز دورها الرائد في مجال الذكاء الاصطناعي من خلال إطلاق مثل هذه الأدوات المبتكرة، والتي تجمع بين التقدم التكنولوجي والاحتياجات العملية للمستخدمين. ويُرجى مراجعة الرابط التالي للحصول على المزيد من التفاصيل حول هذا المشروع: https://www.jiqizhixin.com/articles/2025-06-30-2