NVIDIA Blackwell Ultra تُظهر أداءً يزيد 50 مرة وخفضًا بنسبة 35% في التكاليف لتطبيقات الذكاء الاصطناعي الواعي
أظهرت بيانات جديدة أن منصة NVIDIA Blackwell Ultra، التي تُعدّ تطورًا جوهريًا في أداء الذكاء الاصطناعي، تُقدّم أداءً يصل إلى 50 مرة أفضل وتكاليف أقل بنسبة 35% مقارنة بمنصة Hopper، خاصة في تطبيقات الذكاء الاصطناعي العاملة كـ"وكالات" (Agentic AI). تُعدّ هذه التطورات حاسمة في مجال مساعدات البرمجة والتطبيقات التفاعلية التي تتطلب استجابة فورية وسعة معالجة طويلة لفهم مجموعات كود ضخمة. شهدت طلبات الذكاء الاصطناعي المتعلقة ببرمجة البرامج نموًا هائلاً، حيث ارتفع حجمها من 11% إلى نحو 50% فقط خلال العام الماضي، بحسب تقرير "State of Inference" من OpenRouter. وتتطلب هذه التطبيقات أداءً منخفض التأخير (low latency) لضمان تدفق سلس عبر مهام متعددة، بالإضافة إلى قدرة على التعامل مع سياقات طويلة عند تحليل مشاريع برمجية كاملة. وتحقيق هذا التوازن بين السرعة والكفاءة يُعدّ تحديًا كبيرًا، لكن منصة Blackwell Ultra تقدّم حلولًا مبتكرة. تم تطوير نظام GB300 NVL72، الذي يعتمد على معالجات Blackwell Ultra، بالتعاون بين التصميم المعماري للنظام، والتحسينات في الهاردوير، والبرمجيات المخصصة. ومن خلال تكامل مكثف بين هذه العناصر، تحقق المنصة أداءً يتجاوز 50 مرة في كفاءة الأداء لكل واط مقارنة بمنصة Hopper. وهذا يعني أن التكلفة لكل مليون رمز (token) تقل بنسبة تصل إلى 35%، خاصة في المهام التي تتطلب استجابة سريعة، وهي الحالة المثالية لتطبيقات الوكالات الذكية. التحديثات المستمرة في بيئة البرمجيات من NVIDIA، مثل TensorRT-LLM، Dynamo، Mooncake، وSGLang، ساهمت في رفع كفاءة معالجة نماذج التوليف المتعدد (Mixture-of-Experts) بشكل كبير. فعلى سبيل المثال، تحسينات في TensorRT-LLM ساهمت في تحقيق أداء أفضل بنسبة 5 مرات في مهام التأخير المنخفض خلال أربعة أشهر فقط. بالإضافة إلى ذلك، تُظهر GB300 NVL72 تفوقًا ملحوظًا في المهام التي تتطلب سياقات طويلة، مثل تحليل مشاريع برمجية ضخمة. فعند معالجة إدخال بطول 128,000 رمز وإخراج بطول 8,000 رمز، تُقلّل GB300 NVL72 التكلفة بنسبة تصل إلى 1.5 مرة مقارنة بنظام GB200 NVL72، وذلك بفضل أداء حسابي أعلى بنسبة 1.5 مرة في وحدة NVFP4، وسرعة معالجة الانتباه (attention) مرتين أسرع. أصبحت منصات GB300 NVL72 جزءًا من البنية التحتية للعديد من مزودي الخدمات السحابية الرائدين، مثل مايكروسوفت، CoreWeave، وOCI، التي تستخدمها لتشغيل تطبيقات متكاملة مثل مساعدات البرمجة التفاعلية. وفقًا لتشين جولدبرغ، نائب رئيس الهندسة في CoreWeave، فإن النظام يُمكّن من تحقيق أداء متوقع وتكاليف منخفضة، ما يفتح الباب أمام تطبيقات جديدة تستفيد من قدرات التفكير العميق والتفاعل الفوري. في المستقبل، تُعدّ منصة Vera Rubin NVL72، التي تدمج ستة معالجات جديدة لتكوين حاسوب ذكاء اصطناعي فائق، خطوة متقدمة جديدة. وتُظهر أداءً يصل إلى 10 مرات أفضل في الأداء لكل واط مقارنة بمنصة Blackwell، ما يعني تقليل التكلفة إلى العُشر. كما تُمكن من تدريب نماذج ذكاء اصطناعي متقدمة باستخدام ربع عدد وحدات المعالجة مقارنة بمنصة Blackwell. باختصار، تُمثل منصة Blackwell Ultra، بدعم من تحسينات متواصلة في البرمجيات والهاردوير، نقلة نوعية في كفاءة الذكاء الاصطناعي، وتمكّن الشركات من تقديم تجارب تفاعلية وفعّالة على نطاق واسع، خاصة في مجالات البرمجة والتحليلات المعقدة.
