HyperAI
Back to Headlines

Groq, la Start-up Rival de NVIDIA, Vise une Valorisation de 60 Milliards de Dollars avec son Financement et son LPU Innovant

il y a 15 jours

Selon The Information, l'entreprise de semi-conducteurs axée sur l'IA, Groq, est en négociation avancée avec des investisseurs pour lever entre 300 et 500 millions de dollars. Cette levée de fonds vise à valoriser la startup à environ 6 milliards de dollars après l'injection de capital. Si la transaction se concrétise, cette évaluation serait plus du double des 2,8 milliards de dollars atteints par Groq à la même période en 2024. Cette croissance significative s'explique par de solides performances commerciales. Groq prévoit une augmentation considérable de son chiffre d’affaires pour l’année en cours, passant de 90 millions de dollars en 2022 à environ 500 millions de dollars. Cette augmentation de plus de cinq fois est principalement attribuée à un accord important signé avec l’Arabie Saoudite en février. Groq a annoncé un engagement de 1,5 milliard de dollars de la part des autorités saoudiennes pour accroître la vente de ses puces dans le pays. Bien que les détails spécifiques de cet engagement ne soient pas clairement définis, ce partenariat a indubitablement propulsé la croissance de l'entreprise. En outre, la société a récemment annoncé la construction d’un data center en Finlande, une initiative visant à renforcer son infrastructure mondiale. Groq, basée à San José en Californie, fait partie des nombreuses startups qui ambitionnent de damer le pion à NVIDIA sur le marché des puces IA. Le PDG, Jonathan Ross, connu comme l'un des inventeurs du tenseur processing unit (TPU) de Google, a quitté le géant des technologies pour créer Groq. Son objectif est d’élaborer des alternatives plus performantes, plus rapides et plus économes en énergie que les puces NVIDIA. La technologie phare de Groq est le language processing unit (LPU), un processeur conçu spécifiquement pour l’inférence IA, c'est-à-dire l'exécution de modèles d'intelligence artificielle déjà entraînés. Contrairement aux GPU multifonctions d’NVIDIA, les LPU de Groq sont dotés d'une architecture "programmable pipeline" qui optimise le flux de données, similaire à une ligne de production dans une usine. Chaque unité de traitement sait quand recevoir des données, quelles opérations exécuter et où transmettre les résultats, ce qui réduit considérablement les échanges de données entre l'unité de calcul et la mémoire. Résultat : une bande passante de mémoire SRAM sur puce de 80 To/s, contre 8 To/s pour la mémoire haute bande passante externe d'un GPU, offrant ainsi une avantage de vitesse de 10 fois. Un autre aspect distinctif de l'approche de Groq est sa philosophie « software-first ». Alors que les GPU traditionnels sont conçus d'abord en hardware, obligeant le software à s'adapter à leur complexité, Groq a opté pour une conception inverse. Elle développe d’abord les compilateurs avant d'élaborer le hardware, permettant ainsi l'utilisation de compilateurs génériques et indépendants des modèles. Cette approche simplifie grandement le processus de développement logiciel, évitant aux développeurs l'obligation de rédiger des code d'optimisation complexes pour chaque modèle d'IA, ce qui est cruciale pour le déploiement rapide et l'itération des applications d'IA. Le marché de l'inférence IA offre des opportunités uniques par rapport à celui du training IA, traditionnellement dominé par NVIDIA. Les exigences en matière de configurations matérielles sont plus flexibles et la demande augmente rapidement à mesure que l'IA trouve de nouveaux domaines d'application. Groq gagne en revenus principalement grâce à ses services cloud, via lesquels les entreprises peuvent exécuter diverses applications d'IA. La société propose également la vente directe de systèmes de puces et de services opérationnels de data centers, avec des clients notables tels que Bell Canada. Actuellement, près de 2 millions de développeurs et d’équipes utilisent les services de Groq, assurant une base utilisateur de taille respectable. Cependant, l’entreprise fait face à des défis. Seules environ 70 000 puces Groq sont en service, soit environ 30% de moins que l'objectif fixé pour le premier trimestre de l’année dernière. De plus, les performances de Groq restent inférieures à celles des derniers modèles NVIDIA, comme la série Hopper ou Blackwell. Malgré ces obstacles, la communauté financière reste optimiste quant aux perspectives de Groq. L'entreprise a déjà levé plus de 1 milliard de dollars auprès d'investisseurs, notamment BlackRock, Cisco et Samsung Ventures, ainsi que des fonds de renom comme D1 Capital, Addition de Lee Fixel et Tiger Global Management. Les startups du secteur des puces IA cherchent également à diversifier leurs sources de financement, incluant des prêts, car le développement de semi-conducteurs est un domaine particulièrement gourmand en capitaux. D’après The Information, 24 startups spécialisées dans les puces IA ont déjà collecté plus de 7 milliards de dollars, et ce chiffre continue d'augmenter. Parmi les autres acteurs du marché, Cerebras, qui se concentre sur les puces d'entraînement IA, avait prévu une introduction en bourse l'année dernière mais la transaction a été mise en veilleuse en raison d'un examen réglementaire concernant sa relation avec G42, une société technologique des Émirats arabes unis. G42 contribue à environ 90% des revenus de Cerebras, un niveau de dépendance qui a attiré l’attention des autorités de régulation. Toutefois, le PDG de Cerebras a affirmé que l'entreprise espère toujours finaliser son IPO d'ici la fin de l'année. Une autre startup qui attire l’attention est D-Matrix, qui développe des puces efficientes pour l’exécution de grands modèles linguistiques. Il y a un an, D-Matrix a débuté une campagne de levée de fonds de 250 millions de dollars et a atteint environ 120 millions de dollars, poursuivant activement les fonds supplémentaires nécessaires pour atteindre son objectif total de 300 millions de dollars. L'intérêt porté par ces startups pour le marché du Moyen-Orient est également remarquable. Cette région, où le stock de puces NVIDIA est plus limité, offre des possibilités aux fabricants alternatifs. Par exemple, SambaNova Systems, une autre startup californienne, collabore avec Saudi Aramco pour développer le projet Metabrain, un grand modèle linguistique. Dans l'ensemble, le marché des puces IA présente des opportunités et des défis. Malgré la dominance de NVIDIA, l'évolution rapide des technologies d'IA génère une forte demande pour des solutions de puce dédiées. Convaincre des développeurs qui ont été habitués à l'écosystème NVIDIA de passer à d'autres plateformes reste cependant une tâche ardue. Néanmoins, avec l'expansion continue des applications d'IA, la demande pour des puces spécialisées en inférence devrait augmenter. Les startups comme Groq, Cerebras et D-Matrix seront à observer de près, alors que la course pour supplanter l'empire de 4 000 milliards de dollars d'NVIDIA est en cours.

Related Links