HyperAI
Back to Headlines

Groq: Finanzierung zur Bewertung von 6 Mrd. USD für AI-Chips

vor 15 Tagen

Nach Berichten von The Information plantet die AI-Chip-Start-up-Gesellschaft Groq, mit einem Post-Money-Valuation von 6 Milliarden US-Dollar, eine Finanzierungsrunde im Umfang von 3 bis 5 Milliarden US-Dollar. Wenn diese Runde erfolgreich abgeschlossen wird, verdoppelt sich der Unternehmenswert von 2,8 Milliarden US-Dollar im Jahr 2024. Die starke Wachstumsdynamik, die Groq im letzten Jahr gezeigt hat, ist der Motor dieses Finanzierungsplanes. Das Unternehmen teilt mit, dass das Einkommen für 2023 um über das Fünffache von 90 Millionen auf etwa 500 Millionen US-Dollar gestiegen ist. Ein wesentlicher Beitrag zu diesem Wachstum stammt aus einem wichtigen Geschäftsabschluss mit Saudi-Arabien im Februar 2023. Groq erhielt einen »Zusagenbetrag« von 1,5 Milliarden US-Dollar, um den Chip-Verkauf im Land zu intensivieren. Zwar wurde die Bindungskraft dieser Zusagen nicht spezifiziert, aber die Zusammenarbeit hat offensichtlich Groqs Geschäftsentwicklung stark gefördert. Darüber hinaus kündigte das Unternehmen an, ein Rechenzentrum in Finnland zu errichten, um seine Infrastruktur weiter auszudehnen. Groq hat seinen Sitz in San Jose, Kalifornien, und ist eines der vielen Unternehmen, die versuchen, NVIDIA den Marktanteil an AI-Chips zu streitig zu machen. Der CEO Jonathan Ross, einer der Erfinder des Googles Tensor Processing Units (TPU), hat nach seinem Ausstieg bei Google das Ziel verfolgt, eine Alternative zu NVIDIAs Chips zu entwickeln, die kosteneffizienter, schneller und energieeffizienter sind. Sein Ansatz liegt in der Entwicklung des Language Processing Unit (LPU), einer neuen Kategorie von Prozessoren, die speziell für die Inferenz von KI-Modellen konzipiert sind. Im Gegensatz zu NVIDIAs allgemeinen GPU-Architektur, die eine strahlende Datenverarbeitung verfolgt und häufig Daten zwischen Recheneinheiten und Speicher hin und her transportieren muss, verwendet Groq eine programmierbare Pipelines-Architektur. Hier fließen die Daten wie in einer Fabrik auf einer Assembly Line, wobei jeder Prozessor genau weiß, wann er Daten entgegennehmen, welche Operationen er durchführen und wohin er das Ergebnis weiterleiten soll. Diese Architektur bietet erhebliche Leistungsverbesserungen, insbesondere in Bezug auf die Speicherbandbreite. Die LPU von Groq erreicht eine SRAM-Speicherbandbreite von 80 Terabyte pro Sekunde, während die externe High-Bandwidth-Speicher von GPUs nur 8 Terabyte pro Sekunde erreicht, was ein zehnfaches Leistungsverhältnis bedeutet. Ein weiterer Vorteil der LPU besteht darin, dass alle Operationen deterministisch sind, d. h., Software kann die Ausführungszeit jedes Schritts präzise vorhersagen, was bei GPUs fast unmöglich ist. Ein weiteres Schlüsselelement von Groqs Technologie ist das »software-first«-Designprinzip. Traditionell dominiert bei GPU-Entwicklungen die Hardware, wodurch Softwareanpassungen an die komplexe Hardwarearchitektur erforderlich sind. Jeder neue KI-Modell erfordert den Aufwand, spezielle Software-Kerne zu schreiben. Groq dagegen entwickelt zunächst die Compilerarchitektur und passt dann die Hardware an. Dies ermöglicht es dem LPU, einen allgemeinen, modellunabhängigen Compiler zu verwenden, was den Softwareentwicklungsprozess erheblich vereinfacht. Entwickler müssen nicht mehr für jeden KI-Modell komplexen Optimierungscode schreiben, was die rasche Bereitstellung und Iteration von KI-Anwendungen erleichtert. Groqs Technologie fokussiert sich hauptsächlich auf die Inferenzdienste für bereits trainierte KI-Modelle, ein Markt, der flexiblere Hardwareanforderungen hat und mit der Verbreitung von KI-Anwendungen zunehmend nachgefragt wird. In puncto Geschäftsmodell generiert Groq Einnahmen hauptsächlich durch den Betrieb von Cloud-Dienstleistungen. Unternehmen können über ihre Plattform verschiedene KI-Anwendungen ausführen, vergleichbar damit, dass Firmen die API-Dienste von OpenAI oder die KI-Tools von Amazon Web Services nutzen. Neben Cloud-Dienstleistungen verkauft Groq auch direkt Chip-Systeme und Rechenzentrum-Betriebsdienstleistungen an andere Unternehmen. Groq hat bereits eine beachtliche Nutzerbasis von nahezu 2 Millionen Entwicklerinnen und Teams aufgebaut, die ihre Dienste nutzen. Trotz des raschen Wachstums gibt es auch Herausforderungen. Groq hat aktuell etwa 70.000 Chips online, aber dieser Stand liegt mindestens 30% unter dem Ziel für das erste Quartal 2023, das das Unternehmen im Vorjahr gesetzt hatte. Zudem zeigt Groqs Chip im Vergleich zu NVIDIAs Hopper- oder neuester Blackwell-Reihe noch ein signifikantes Leistungsniveau. Dennoch bleibt die Investorenlandschaft optimistisch. Groq hat bisher über 1 Milliarde US-Dollar von renommierten Investoren eingeworfen, darunter BlackRock, Cisco und Samsungs Venture-Capital-Abteilungen sowie D1 Capital, Lee Fixel’s Addition Fund und Tiger Global Management. Die Halbleiterbranche ist bekannt für ihre kapitalintensive Natur, daher suchen vergleichbare Unternehmen neben Eigenkapital auch Anleihen als wichtige Finanzierungsoption. Laut Statistiken von The Information haben 24 AI-Chip-Start-ups inzwischen insgesamt über 7 Milliarden US-Dollar eingeworben, ein Betrag, der sich weiter erhöht. Andere Akteure im Markt haben ebenfalls ihre eigenen Entwicklungspfade beschritten. Cerebras, das sich auf Trainingschips für KI-Modelle spezialisiert hat, plante im letzten Jahr eine Börsengang, musste diesen aber wegen der Prüfung seines Geschäftsverhältnisses mit der Emiratischen Technologiefirma G42, die etwa 90% ihrer Einnahmen stellte, vorübergehend auf Eis legen. Im Mai 2023 sagte der CEO von Cerebras öffentlich, dass das Unternehmen immer noch hofft, den Börsengang innerhalb des Jahres zu realisieren. D-Matrix, ein weiteres Unternehmen, das sich auf effizientes Laufen von großen Sprachmodellen konzentriert, begann im letzten Jahr, 2,5 Milliarden US-Dollar zu sammeln, und hat bereits etwa 1,2 Milliarden US-Dollar eingeworben. Es bemüht sich, die verblegenden 1,8 Milliarden US-Dollar aufzutreiben und eine Gesamtfinanzierung von 3 Milliarden US-Dollar anzustreben. Ein wichtiger Grund für den wachsenden Fokus vieler Chip-Start-ups auf den Mittleren Osten ist die begrenzte Verfügbarkeit von NVIDIAs Chips in dieser Region, was Chancen für andere Hersteller eröffnet. Zum Beispiel liefert SambaNova Systems, ebenfalls aus Kalifornien, Chip-Systeme und Software-Dienstleistungen an Saudi Aramco, um das Unternehmen bei der Entwicklung des Projekts Metabrain zu unterstützen. Fazit: Die rasante Entwicklung der KI-Technologie schafft enorme Nachfrage nach spezialisierten Chips. Allerdings ist es eine komplexe Aufgabe, Entwickler, die schon im NVIDIA-Ökosystem verankert sind, dazu zu bewegen, den Plattformwechsel zu vollziehen. Die Nachfrage nach dedizierten Inferenzchips wird jedoch weiter steigen, während sich die Anwendungsfelder von KI weiter ausdehnen. Es bleibt abzuwarten, ob und wann Groq und andere NVIDIA-Rivalen es tatsächlich schaffen, den Marktanteil der 400-Milliarden-US-Dollar-firmen zu erobern.

Related Links