نفيديا تطلق معمارية ذكاء اصطناعي جديدة تُحدث ثورة في سرعة معالجة النماذج اللغوية
تُعدّ مُهارات المعالجة اللغوية في النماذج الكبيرة أحد أكبر التحديات في عالم الذكاء الاصطناعي، حيث تتطلب هذه النماذج موارد حسابية هائلة، مما يؤدي إلى تكاليف باهظة وتأخيرات في استجابة النظام. لكن NVIDIA تقدم حلاً جذرياً من خلال معمارية جديدة تُسمى Jet-Nemotron، التي تحقق تحسناً في الأداء بنسبة 53 مرة دون التضحية بدقة النماذج. الفكرة المحورية وراء Jet-Nemotron تكمن في إعادة التفكير في طريقة معالجة النماذج للنصوص. بدلاً من تحليل كل كلمة بالنسبة لكل كلمة أخرى — وهو ما يُعرف بـ"الانتباه الكامل" — تستخدم المعمارية نهجاً أكثر ذكاءً يعتمد على إطار عمل يُدعى PostNAS. هذا الإطار يُحدّد تلقائياً أين يجب أن يُركّز النموذج انتباهه، ويُقلل من العمليات غير الضرورية، مما يُقلل من حجم الحسابات دون التأثير على جودة النتائج. النتيجة؟ تحسين كبير في سرعة المعالجة، خاصة في المهام التي تتطلب استجابة فورية، مثل المحادثات التفاعلية أو تحليل النصوص الطويلة. وقد أظهرت الاختبارات أن Jet-Nemotron يحافظ على أداء مماثل أو أفضل من النماذج التقليدية على مجموعة واسعة من المعايير، بما في ذلك الترجمة، والفهم النصي، وتوليد المحتوى. ما يُميّز Jet-Nemotron ليس فقط سرعته، بل قدرته على التكيف مع المهام المختلفة دون الحاجة إلى إعادة تدريب كامل. يُمكن تطبيقه على نماذج موجودة مسبقاً، مما يجعله حلّاً عملياً وقابلًا للتطبيق في بيئات العمل الحقيقية، سواء في الشركات أو مراكز الأبحاث. الإطار PostNAS، الذي يُعتبر العمود الفقري للمعمارية، يستخدم تقنيات تعلم آلي متقدمة لتصميم هيكل انتباه ذكي، يُحسّن من كفاءة استخدام الموارد. بفضل هذه الميزة، يمكن تقليل استهلاك الطاقة بنسبة كبيرة، ما يُسهم في تقليل التكاليف التشغيلية وخفض البصمة الكربونية للنماذج. يُعدّ هذا التقدم خطوة مهمة نحو جعل الذكاء الاصطناعي أكثر كفاءة وقابلية للتوسع، خاصة في ظل الطلب المتزايد على تطبيقات ذكية تتفاعل مع المستخدمين بسرعة ودقة. مع تطور مثل هذه المعماريّات، يقترب العالم من عصر جديد يُمكن فيه استخدام النماذج اللغوية الكبيرة دون قيود حسابية أو زمنية. Jet-Nemotron لا يُعدّ مجرد تحسين تقني، بل تمثل نقلة نوعية في تصميم النماذج، حيث يُركّز على "الذكاء" في الانتباه، وليس على "الكم" في الحساب.
