HyperAIHyperAI

Command Palette

Search for a command to run...

Back to Headlines

AWS baut auf Eigenentwicklungen wie Trainium2 und 3 für AI-Acceleratoren

vor 6 Tagen

Amazon Web Services (AWS) ist in der Entwicklung und Einführung eigener KI-Beschleuniger, insbesondere des Trainium2- und Trainium3-Chips, äußerst aktiv und optimistisch. Die Zahlen aus dem dritten Quartal 2025 belegen, dass Trainium2 bereits ein mehrmiliardenförmiges Geschäftsmodell mit 2,5-fachem Umsatzwachstum im Vergleich zum zweiten Quartal darstellt. Die Chips sind voll ausgelastet, und ein kleiner Kreis großer Kunden nutzt sie für KI-Training und -Inferenz, wobei AWS von 30 bis 40 Prozent besserem Preis-Leistungs-Verhältnis im Vergleich zu alternativen Lösungen spricht. Besonders auffällig ist, dass der Großteil der Token-Verarbeitung in Amazon Bedrock bereits auf Trainium2 läuft – ein klares Zeichen für die zunehmende Bedeutung der eigenen Hardware. Zudem hat AWS gemeinsam mit Anthropic den „Project Ranier“-Supercluster vorgestellt, der 500.000 Trainium2-Chips umfasst und bis Ende 2025 auf eine Million erweitert werden soll. Dieser Cluster soll fünfmal leistungsfähiger sein als die vorherigen GPU-basierten Systeme, die für die Entwicklung der Claude-4-Modelle genutzt wurden. Trainium3, hergestellt in 3-Nanometer-Technologie, wird voraussichtlich Ende 2025 im Preview-Modus starten und ab Anfang 2026 in vollem Umfang verfügbar sein. Es soll doppelt so leistungsfähig wie Trainium2 und 40 Prozent energieeffizienter sein, was die Wettbewerbsfähigkeit gegenüber Nvidia-GPUs weiter steigern könnte. AWS positioniert sich dabei zwischen Eigenentwicklung und Kooperation: Während die eigenen Trainium-Chips für KI-Training und Inferenz genutzt werden, bleibt die Verfügbarkeit von Nvidia- und AMD-GPUs erhalten – besonders für Kunden, die maximale Flexibilität oder eigene Plattformen aufbauen wollen. Aktuell sind nur Google mit seinen TPUs und AWS mit Trainium die einzigen Cloud-Anbieter mit weitreichend eingesetzten eigenen KI-Beschleunigern. Microsoft arbeitet an Maia-Chips, Meta ist noch bei den Inferenzvarianten seiner MTIA-Chips. Chinesische Cloud-Anbieter wie Alibaba oder Tencent entwickeln ebenfalls eigene Chips, oft in Zusammenarbeit mit HiSilicon oder anderen lokalen Herstellern, um von Nvidia zu entkoppeln. Andy Jassy betonte, dass die Nachfrage nach Trainium3 bereits groß ist und dass AWS nicht nur die Hardware, sondern auch die Software-Ecosystems kontinuierlich verbessert. Die zunehmende Nutzung durch Kunden wie Anthropic schafft Vertrauen und erhöht die Glaubwürdigkeit der Plattform. Gleichzeitig expandiert AWS seine Rechenzentrumsinfrastruktur rasant: In den letzten 12 Monaten wurden 3,8 GW zusätzliche Kapazität aktiviert, weitere 1 GW sollen im vierten Quartal hinzukommen. Bis Ende 2027 soll sich die Gesamtkapazität verdoppeln – von etwa 4 GW Ende 2022 auf rund 20 GW. Diese Expansion erfordert riesige Investitionen: Schätzungen zufolge belaufen sich die IT-Ausgaben für 2026 und 2027 auf über 400 Milliarden US-Dollar, wobei die Hälfte auf GPU- und die andere auf Eigen-ACCEL-Infrastruktur entfällt. Amazon investiert 26,4 Milliarden US-Dollar in IT-Infrastruktur, davon 28,2 Milliarden in KI-Cluster – ein klarer Fokus auf KI. Insgesamt wuchs der Gesamtumsatz von Amazon auf 180,17 Milliarden US-Dollar, wobei AWS mit 33,02 Milliarden US-Dollar (20,2 % Wachstum) und einem Betriebsgewinn von 11,43 Milliarden US-Dollar (9,4 % Wachstum) die stärkste Wachstumsdynamik aufwies. Die Kernsysteme – Compute, Storage, Networking – generierten 19,47 Milliarden US-Dollar Umsatz, wobei der Betriebsgewinn um 21,8 % stieg. In der GenAI-Ära nähert sich der Compute-Teil dem Umsatzniveau der Software- und Datenplattformen an, was die zentrale Rolle der Rechenleistung in der Cloud neu definiert. Bewertung durch Branchenexperten: Industrieanalysten sehen in der Trainium-Strategie von AWS eine strategische Antwort auf die Abhängigkeit von Nvidia. Die Kombination aus Skalierbarkeit, Energieeffizienz und enger Integration mit Bedrock und SageMaker macht Trainium zu einer attraktiven Alternative. Die Fokussierung auf Partnerschaften wie mit Anthropic stärkt die Glaubwürdigkeit. Allerdings bleibt die Abhängigkeit von externen GPU-Plattformen weiterhin relevant, da viele Kunden weiterhin auf die höchste Leistung für spezifische Modelle angewiesen sind. Die Investitionen in 3-NM-Technologie und die geplante Skalierung deuten auf eine langfristige, systematische Wettbewerbsstrategie hin. AWS könnte damit nicht nur Kosten senken, sondern auch die Profitabilität der Cloud-Plattformen stärken – ein entscheidender Vorteil in der zunehmend wettbewerbsintensiven KI-Cloud-Landschaft.

Related Links

AWS baut auf Eigenentwicklungen wie Trainium2 und 3 für AI-Acceleratoren | Neueste Nachrichten | HyperAI