HyperAIHyperAI

Command Palette

Search for a command to run...

Red Hat erweitert AI-Infrastruktur auf AWS mit spezialisierten Chips

Red Hat hat eine erweiterte Zusammenarbeit mit Amazon Web Services (AWS) angekündigt, um Unternehmen bei der Skalierung von generativen KI-Workloads in der Produktion zu unterstützen. Mit dem Fokus auf KI-Inferenz auf AWS-AI-Chips – insbesondere den Inferentia2- und Trainium3-Chips – bietet die Kooperation eine flexible, leistungsstarke und kosteneffiziente Lösung für hybride Cloud-Umgebungen. Ziel ist es, IT-Entscheidungsträgern die Möglichkeit zu geben, KI-Anwendungen unabhängig vom zugrunde liegenden Hardware-Stack zu betreiben. Die Zusammenarbeit baut auf Red Hats Open-Source-Expertise und AWS’ Cloud-Infrastruktur sowie spezialisierten KI-Chips auf und zielt darauf ab, die Effizienz von KI-Infrastrukturen zu steigern. Besonders hervorgehoben wird die Integration des Red Hat AI Inference Servers, der auf der vLLM-Framework-Technologie basiert und bis zu 30–40 % bessere Preis-Leistungs-Verhältnisse gegenüber herkömmlichen GPU-basierten EC2-Instanzen erzielen soll. Zudem wurde ein AWS Neuron Operator für Red Hat OpenShift entwickelt, der eine nahtlose Nutzung von AWS-Acceleratoren in OpenShift-Umgebungen ermöglicht – inklusive Red Hat OpenShift AI und OpenShift Service on AWS. Diese Lösungen sollen den Weg für eine skalierbare, unterstützte und einfache Bereitstellung von KI-Workloads ebnen. Ergänzend wurde die amazon.ai Certified Ansible Collection veröffentlicht, um die Automatisierung von KI-Diensten auf AWS zu vereinfachen. Ein weiterer Schwerpunkt liegt auf der Open-Source-Kooperation: Red Hat und AWS arbeiten gemeinsam daran, einen AWS-AI-Chip-Plugin für vLLM zu optimieren und upstream zu integrieren. Als führender kommerzieller Beitragsteller zu vLLM trägt Red Hat dazu bei, die Skalierbarkeit von KI-Inferenz zu beschleunigen. Die vLLM-Technologie bildet auch die Grundlage für llm-d, ein Open-Source-Projekt, das nun als kommerziell unterstützte Funktion in Red Hat OpenShift AI 3 verfügbar ist. Die AWS Neuron-Community-Operator ist bereits in der OpenShift OperatorHub verfügbar, während die Unterstützung des Red Hat AI Inference Servers für AWS-AI-Chips voraussichtlich im Januar 2026 in der Developer-Preview erscheint. Die Initiative ist Teil einer langjährigen Partnerschaft zwischen Red Hat und AWS, die nun auf die Herausforderungen der KI-Integration in hybriden Cloud-Strategien abzielt. Industrieexperten sehen in der Kooperation eine strategische Antwort auf steigende KI-Inferenzkosten und die wachsende Nachfrage nach spezialisierten Chips. Joe Fernandes von Red Hat betont die Bedeutung der „any model, any hardware“-Strategie, die Flexibilität und Kosteneffizienz fördert. Colin Brace von AWS unterstreicht die Bedeutung von Leistung, Kostenoptimierung und operativer Wahlmöglichkeiten für kritische KI-Workloads. CIOs wie Jean-François Gamache von CAE sehen in der Plattform eine zentrale Triebkraft für digitale Transformation und Innovation. Analyst Anurag Agrawal von Techaisle hebt hervor, dass die Zusammenarbeit den Übergang von experimentellen Pilotprojekten zu nachhaltigen, kontrollierten Produktionsumgebungen ermöglicht – ein entscheidender Schritt für die breite Etablierung von generativer KI im Unternehmen. Red Hat positioniert sich damit weiterhin als führender Anbieter für offene, hybride Cloud-Lösungen, die KI-Transformationen skalierbar und nachhaltig gestalten.

Verwandte Links