HyperAIHyperAI

Command Palette

Search for a command to run...

Red Hat تُعزز قدرات استدلال الذكاء الاصطناعي على AWS بدمج شرائح AI المخصصة

أعلنت شركة ريد هات، الرائدة عالميًا في حلول البرمجيات المفتوحة المصدر، عن توسيع شراكتها مع أمازون ويب سيرفيسز (AWS) لتمكين أداء محسّن للذكاء الاصطناعي التفسيري (AI Inference) على أجهزة معالجات AWS Trainium وInferentia، وذلك في إطار دعم تطبيقات الذكاء الاصطناعي التوليدي (Gen AI) في البيئات المؤسسية. تأتي هذه الخطوة استجابة للاحتياجات المتزايدة من تكامل الذكاء الاصطناعي في الاستراتيجيات الهجينة للسحابة، حيث تُظهر توقعات IDC أن 40% من المؤسسات ستستخدم شرائح مخصصة بحلول 2027 لتحسين الأداء وخفض التكاليف. يتمحور التعاون حول دمج منصة ريد هات للذكاء الاصطناعي مع بنية AWS السحابية وشرائحه المخصصة، حيث يُقدّم ريد هات خدمة "Red Hat AI Inference Server" المدعومة بمنصة vLLM، والتي ستُشغل على شرائح AWS Inferentia2 وTrainium3. هذا يتيح لعملاء ريد هات أداءً أسرع، وتأخيرًا أقل، وفعالية أفضل من حيث التكلفة، مع تحسين أداء السعر بنسبة تصل إلى 30-40% مقارنة بinstances EC2 القائمة على GPU. كما طوّرت ريد هات مُكوّن AWS Neuron مُخصّصًا لمنصة Red Hat OpenShift، بما في ذلك Red Hat OpenShift AI وRed Hat OpenShift Service on AWS، مما يوفّر مسارًا مدعومًا وسلسًا لتشغيل مهام الذكاء الاصطناعي باستخدام مسرّعات AWS. هذا يعزز مرونة العمل في البيئات الهجينة، ويسهّل تكامل الذكاء الاصطناعي في سير العمل الحالية. ومن الجدير بالذكر أن ريد هات أطلقت حديثًا مجموعة مُصَفّاة (Certified Ansible Collection) لـ Amazon.ai ضمن منصة Ansible Automation Platform، لتمكين أتمتة إدارة خدمات الذكاء الاصطناعي على AWS. كما تتعاون ريد هات وAWS لتحسين مكونات دعم شرائح AWS في vLLM، ودمجها في المجتمع المفتوح، ما يُسهم في تسريع تطوير وتنفيذ مهام التدريب والتمييز في الذكاء الاصطناعي. تُعد هذه الشراكة استمرارًا لشراكة طويلة الأمد بين ريد هات وAWS، وتُظهر التزام ريد هات بتمكين المؤسسات من تشغيل نماذج الذكاء الاصطناعي على أي هاردوير، بغض النظر عن المزود، عبر منصات مفتوحة ومستقرة. وتم تأكيد أن مُكوّن AWS Neuron متوفر الآن في OpenShift OperatorHub، بينما سيُتاح دعم Red Hat AI Inference Server لشرائح AWS في نسخة تجريبية للمطورين في يناير 2026. أكد جو فرنانديز، نائب الرئيس ومدير وحدة الذكاء الاصطناعي في ريد هات، أن هذه الخطوة تُعزز قدرة المؤسسات على نشر وتوسيع مهام الذكاء الاصطناعي بكفاءة ومرن، مع الحفاظ على مرونة التكامل في البيئات الهجينة. في المقابل، أشار كولين برايس من AWS إلى أن الشراكة تُقدّم حلولًا مدعومة تُقلّل التكاليف وتحسّن الأداء، وتُسرّع الانتقال من التجريب إلى الإنتاج. وأشارت كارولين جاماك، المديرة التقنية في شركة CAE، إلى أن استخدام Red Hat OpenShift Service on AWS ساهم في تسريع التحول الرقمي وتمكين الفرق التقنية من التركيز على الابتكار، بينما أبرز أنوراج أغرافال، خبير تحليلات تقنية، أن هذه الشراكة تمثل نموذجًا فعّالًا لتحويل الذكاء الاصطناعي من تجارب مكلفة إلى عمليات إنتاجية مستدامة.

الروابط ذات الصلة