HyperAIHyperAI

Command Palette

Search for a command to run...

Google-TPUs: Spezialchips für KI, die Markt und Nvidia herausfordern könnten

Google’s Tensor Processing Units (TPUs) sind spezialisierte AI-Chips, die das Unternehmen seit über einem Jahrzehnt entwickelt und intern für Aufgaben wie das Training großer Sprachmodelle, Suchalgorithmen und Karten-Dienste nutzt. Ursprünglich von einem Team unter der Leitung von Jonathan Ross (heute CEO von Groq) entwickelt, wurden TPUs von Anfang an für maschinelles Lernen optimiert – im Gegensatz zu Nvidia-GPUs, die ursprünglich für Gaming konzipiert und später für AI adaptiert wurden. Die neueste Generation, der „Ironwood“-TPU, soll bei Training und Inferenz mehr als viermal leistungsfähiger sein als sein Vorgänger und ist ab November 2023 in der Google Cloud weltweit verfügbar. Besonders vorteilhaft sind TPUs bei der Skalierung: Sie können in sogenannten „Pods“ mit Tausenden von Einheiten betrieben werden, was die Rechenleistung steigert und die Kosten pro Aufgabe senken kann – besonders bei der Inferenz, also dem Einsatz trainierter Modelle. Ein entscheidender Vorteil von TPUs liegt in ihrer Effizienz bei bestimmten Berechnungen dank der „systolischen Matrix“-Architektur, die eine kontinuierliche Datenflussverarbeitung ermöglicht und den Speicherzugriff minimiert. Dies macht sie schneller und energieeffizienter als GPUs bei spezifischen AI-Aufgaben. Google nutzt TPUs selbst intensiv – etwa für das Gemini-3-Modell – und hat sie bereits an Kunden wie Apple und Anthropic verliehen. Letzteres hat einen Megadeal mit Google abgeschlossen, der bis zu eine Million TPUs umfasst. Auch Meta testet derzeit TPUs, obwohl kein endgültiger Vertrag vorliegt. Trotz dieser Fortschritte bleibt Nvidia dominant, vor allem dank seines Software-Ökosystems CUDA, das nahezu alle AI-Entwickler bindet. Google arbeitet daran, dies zu ändern: Die Unterstützung für PyTorch – die beliebtere Alternative zu Google’s eigenem Tensorflow – wird verstärkt. Dies ist entscheidend, da viele Entwickler und Unternehmen PyTorch bevorzugen. Dennoch ist der Wechsel zu TPUs nicht einfach, da die Software-Ökosysteme stark verankert sind. Analysten wie Morgan Stanley prognostizieren, dass Google bis 2028 bis zu 7 Millionen TPUs verkaufen könnte, was potenziell Milliarden an zusätzlichen Einnahmen bringen könnte. Experten sehen in TPUs zwar keine unmittelbare Bedrohung für Nvidia, aber als ernstzunehmenden Wettbewerber, der die Marktdynamik verändern könnte. Die Zukunft könnte eine Multi-Chip-Welt sein, in der Unternehmen mehrere Anbieter nutzen – was die Preisgestaltung und Innovationsgeschwindigkeit beeinflusst. Google könnte sich damit nicht nur zu einem Cloud- und Hardware-Giganten entwickeln, sondern auch einen geschlossenen Kreislauf aus Hardware-Entwicklung, AI-Training und Chip-Optimierung aufbauen. Obwohl Nvidia weiterhin führend bleibt, wird der Wettbewerb um die besten AI-Chips zunehmend intensiver – und Google ist nun ein ernsthafter Akteur.

Verwandte Links