Amazon stellt neuen AI-Chip Trainium3 vor und kündigt Nvidia- kompatiblen Nachfolger an
Amazon Web Services hat auf der AWS re:Invent 2025 die dritte Generation seines selbstentwickelten KI-Trainingschips, Trainium3, offiziell vorgestellt, begleitet von der Einführung des UltraServer-Systems, das den 3-Nanometer-Chip nutzt. Die neue Architektur verspricht eine mehr als vierfach höhere Leistung bei KI-Training und Inferenz im Vergleich zur Vorgängergeneration, wobei die Speicherkapazität ebenfalls vervierfacht wurde. Zudem steigert das System die Energieeffizienz um 40 Prozent – ein entscheidender Vorteil in Zeiten wachsender Energiekosten und Umweltanforderungen an Rechenzentren. Die UltraServer-Systeme können in Massen miteinander vernetzt werden, wodurch bis zu eine Million Trainium3-Chips in einem einzigen System zusammengefasst werden können – zehnmal mehr als beim vorherigen Modell. Jeder Server fasst 144 Chips, was eine extreme Skalierbarkeit für große KI-Workloads ermöglicht. Wichtiger als die reinen Zahlen ist jedoch die strategische Richtung, die Amazon mit dem Trainium3 setzt: die Interoperabilität mit Nvidia-Technologien. AWS kündigte bereits die Entwicklung des Trainium4 an, der mit der NVLink Fusion-Technologie von Nvidia kompatibel sein wird. Dies bedeutet, dass AWS-Systeme mit Trainium4-Chips künftig direkt mit Nvidia-GPUs kommunizieren und deren Leistung erweitern können – trotz der Nutzung von Amazon’s eigener, kostengünstigerer Server-Architektur. Diese Entwicklung ist ein klares Signal an KI-Entwickler und Unternehmen, die bisher auf Nvidia’s CUDA-Ökosystem setzen: Amazon will nun auch für diese Anwender attraktiv werden, ohne die Vorteile seiner Kosteneffizienz und Skalierbarkeit aufzugeben. Unternehmen wie Anthropic, Karakuri, SplashMusic und Decart haben bereits die Trainium3-Systeme im Einsatz und berichten von erheblichen Einsparungen bei der Inferenzkosten. Das zeigt, dass die neuen Chips nicht nur technisch überlegen sind, sondern auch wirtschaftlich sinnvoll. Obwohl Amazon kein genaues Release-Datum für Trainium4 nennt, deutet die bisherige Entwicklungsgeschwindigkeit darauf hin, dass die nächste Generation voraussichtlich auf der re:Invent 2026 vorgestellt wird. Industrieexperten sehen in dieser Entwicklung eine entscheidende Wende: Amazon positioniert sich nicht mehr nur als Cloud-Anbieter, sondern als ernstzunehmender Konkurrent im KI-Hardware-Sektor. Die Kombination aus eigenem Chipdesign, energieeffizienter Infrastruktur und der strategischen Öffnung für Nvidia-Technologien könnte Amazon helfen, den Einfluss von Nvidia im KI-Ökosystem zu brechen – ohne auf die Dominanz von CUDA zu verzichten. Gleichzeitig unterstreicht Amazon seine langjährige Strategie: Kostensenkung durch Technologiekontrolle. Mit Trainium3 und dem zukünftigen Trainium4 baut das Unternehmen nicht nur eine eigene KI-Infrastruktur auf, sondern schafft auch ein attraktives Umfeld für Entwickler, die nach Alternativen zu Nvidia suchen – ohne dabei Leistung oder Kompatibilität zu opfern.
