HyperAIHyperAI

Command Palette

Search for a command to run...

Luminal lève 5,3 millions pour réinventer le compilateur GPU et libérer plus de puissance compute

Il y a trois ans, Joe Fioti, cofondateur de Luminal, travaillait sur la conception de puces chez Intel lorsqu’il a pris conscience d’un problème fondamental : même les meilleurs processeurs du monde ne servent à rien si les développeurs ne peuvent pas facilement les utiliser. « Vous pouvez créer les meilleurs matériels au monde, mais si les développeurs trouvent cela difficile à exploiter, ils ne l’utiliseront tout simplement pas », m’a-t-il expliqué. Aujourd’hui, il a lancé une entreprise dédiée précisément à résoudre ce goulot d’étranglement logiciel. Lundi, Luminal a annoncé avoir levé 5,3 millions de dollars en financement initial, un tour de table mené par Felicis Ventures, avec des investissements individuels de Paul Graham, Guillermo Rauch et Ben Porterfield. Ses cofondateurs, Jake Stevens (ancien d’Apple) et Matthew Gunton (ancien d’Amazon), ont rejoint Fioti après avoir participé au programme d’accélération Y Combinator de l’été 2025. L’activité centrale de Luminal repose sur la vente de capacité de calcul, comme le font d’autres entreprises cloud comme Coreweave ou Lambda Labs. Mais là où ces dernières se concentrent principalement sur l’infrastructure GPU, Luminal mise sur une optimisation poussée du logiciel qui relie le code écrit par les développeurs au matériel physique. Plus précisément, l’entreprise travaille sur l’optimisation du compilateur — cet outil critique qui traduit les instructions du programme en instructions compréhensibles par la GPU — une étape qui a longtemps été source de difficultés pour Fioti dans son ancien poste. À l’heure actuelle, le leader incontesté du marché des compilateurs est CUDA, le système développé par Nvidia. Si certaines parties de CUDA sont open source, Luminal parie que, dans un contexte où la demande de GPU reste forte, il existe une opportunité majeure à construire une pile logicielle complète, plus performante et plus accessible. Ce positionnement s’inscrit dans une tendance croissante : l’émergence d’entreprises spécialisées dans l’optimisation de l’inférence, c’est-à-dire le déclenchement des modèles d’intelligence artificielle. Des acteurs comme Baseten ou Together AI ont longtemps dominé ce secteur, tandis que de nouvelles startups, telles que Tensormesh ou Clarifai, se concentrent sur des techniques techniques très spécifiques. Cependant, Luminal doit faire face à une concurrence redoutable : les équipes d’optimisation des grands laboratoires technologiques, qui peuvent ajuster leurs modèles sur une seule famille de matériel. En revanche, en travaillant pour des clients variés, Luminal doit rester polyvalent. Malgré ce risque, Joe Fioti reste confiant. « Il sera toujours possible de passer six mois à optimiser manuellement une architecture de modèle sur un matériel donné, et de battre n’importe quel compilateur », reconnaît-il. « Mais notre pari principal, c’est que pour la majorité des cas d’usage général, une solution universelle reste économiquement très valorisable. »

Liens associés

Luminal lève 5,3 millions pour réinventer le compilateur GPU et libérer plus de puissance compute | Articles tendance | HyperAI