تُقدّم NVIDIA حلولًا متطورة لتوسيع أداء واستقرار استدلال الذكاء الاصطناعي عبر تقنيات NVLink وNVLink Fusion
تُعدّ تطورات الذكاء الاصطناعي، خاصةً نمو نماذج اللغة الكبيرة (LLMs) و architectures المختلطة من الخبراء (MoE)، أحد أبرز التحديات في مجال الحوسبة، حيث ارتفعت أعداد المعاملات من ملايين إلى تريليونات، مما يستدعي موارد حوسبة ضخمة تتطلب تجميعًا كبيرًا من وحدات معالجة الرسوميات (GPUs). لمواجهة هذا الطلب المتزايد، انتقلت أنظمة التشغيل إلى استراتيجيات توازي مكثفة، مثل التوازيtensor والPipeline والExpert، مما جعل الحاجة إلى بنى حوسبة ممتدة ذات نطاق واسع ومتصل ببنية تواصل عالية الأداء أمرًا حيويًا. في هذا السياق، تُعدّ تقنية NVIDIA NVLink، التي تم إطلاقها عام 2016، حجر الزاوية في تجاوز قيود واجهة PCIe، حيث وفرت اتصالًا أسرع بين GPUs وساحة ذاكرة موحدة. وتطورت هذه التقنية عبر الأجيال، حيث ساهمت تقنية NVLink Switch في عام 2018 في تحقيق عرض نطاق 300 جيجابايت/ثانية بين 8 GPUs، ثم تطورت مع الجيل الخامس عام 2024 لدعم اتصال 72 GPU بعرض نطاق إجمالي 130 تيرابايت/ثانية، أي 800 مرة أكثر من الجيل الأول. وتم دعم هذه الأداء بالتقنية الخاصة بـ SHARP لتقليل زمن العمليات الجماعية وتحسين كفاءة نقل البيانات. تعتمد هذه الأداء العالي على مزيج من المكونات الصلبة والبرمجيات، خصوصًا مكتبة الاتصالات الجماعية من NVIDIA (NCCL)، التي تُعتبر مفتوحة المصدر ومحسّنة لتقديم أداء قريب من الحد الأقصى النظري في الاتصال بين GPUs، وتعمل على دعم التوسع الأفقي والعمودي تلقائيًا، ومتضمنة في كل منصات التعلم العميق الكبرى. في سياق مصانع الذكاء الاصطناعي (AI Factories)، تلعب البنية الممتدة من 72 GPU، المدعومة بـ NVLink، دورًا محوريًا في تحسين الأداء، حيث تُظهر منحنيات باريتو توازنًا بين الأداء (الإجمالي) واستهلاك الطاقة، والهدف هو تكبير المساحة تحت المنحنى لتعظيم العائد. وتُظهر النتائج أن التصميمات التي تعتمد على تقنية NVLink تتفوق بوضوح في الأداء، حتى عند ثبات سرعة الاتصال. لتمكين الشركات الكبرى (Hyperscalers) من الاستفادة من هذه التقنية بشكل مخصص، أطلقت NVIDIA تقنية NVLink Fusion، التي تمنحها وصولًا مباشرًا إلى كل مكونات بنية NVLink المُثبتة في الإنتاج، بما في ذلك SERDES، chiplets، Switches، وبنية التوريد المدمجة (rack-scale). وتدعم هذه التقنية تصميمات مخصصة لـ CPUs أو XPUs أو مزيج منهما، عبر حلول معيارية من Open Compute Project (OCP) MGX، مما يتيح التكامل مع أي NIC أو DPU أو مفتاح توسعة. لتصميمات XPU، تُستخدم تقنية UCIe كواجهة مفتوحة، مع توفير شريحة جسرية من NVIDIA لربط UCIe بـ NVLink، مما يضمن أعلى أداء وسهولة دمج. أما في حالات CPUs المخصصة، يُوصى باستخدام تقنية NVLink-C2C لربطها بـ GPUs، مما يمنح النظام وصولاً إلى مكتبات CUDA-X الغنية، مدعومة ببيئة CUDA المتكاملة. تُدعم هذه الحلول من خلال شراكة واسعة مع مزودي رقائق، وحلول هندسية، وشركاء بنية توريد، مما يضمن استعدادًا إنتاجيًا فوريًا، ويُسرّع من وقت الإطلاق. كما تُستخدم هذه البنية بالفعل في أنظمة NVIDIA GB200 NVL72 وGB300 NVL72، مما يُثبت نضجها وقابلية التوسع. باختصار، تمثل NVLink Fusion خطوة جوهرية في تطوير البنية التحتية للذكاء الاصطناعي، حيث تجمع بين خبرة NVIDIA الممتدة لعشر سنوات في التوسع، ودعم مفتوح من خلال معايير OCP، وخيارات تخصيص متكاملة، مما يمكّن الشركات من بناء أنظمة حسابية عالية الأداء، مخصصة، وقابلة للتوسع، لمواجهة متطلبات الذكاء الاصطناعي في العصر الحديث.