La transparence des géants de l’IA s’effondre : un nouveau baromètre révèle un recul inquiétant
L’indice de transparence des modèles fondamentaux (FMTI) 2025, publié par une équipe de chercheurs de Stanford, Berkeley, Princeton et MIT, révèle une chute inquiétante de la transparence dans l’industrie de l’IA. En moyenne, les treize entreprises évaluées obtiennent seulement 40 points sur 100, un recul marqué par rapport aux 58 points de l’année précédente. Ce recul s’inscrit dans un contexte où l’IA est devenue centrale : sept géants comme Google et Meta représentent plus de 35 % de l’indice S&P 500, tandis que des startups comme OpenAI et Anthropic sont devenues les entreprises privées les plus valorisées de l’histoire. Pourtant, la transparence des entreprises qui façonnent ce futur est en déclin. L’indice, désormais en sa troisième édition, évalue les pratiques de transparence sur 15 axes clés : données d’entraînement, calcul nécessaire, accès au modèle, surveillance post-déploiement, gestion des risques, impact économique et environnemental. Les résultats révèlent une grande disparité : trois groupes se dégagent. Les leaders, comme IBM, atteignent 95/100, un record absolu, en publiant des détails suffisants pour permettre la reproductibilité des données d’entraînement et en offrant un accès à des auditeurs externes. En revanche, xAI et Midjourney obtiennent 14/100, se refusant à divulguer toute information sur leurs données, leurs risques ou leurs mesures de mitigation. L’opacité est particulièrement préoccupante sur des enjeux environnementaux : 10 entreprises, dont Google, OpenAI, Amazon et Meta, ne fournissent aucune donnée sur la consommation d’énergie, les émissions de carbone ou l’usage de l’eau. Cela prend une importance croissante alors que les centres de données consomment des ressources énergétiques massives, contribuant à la pression sur les réseaux électriques. L’indice montre que la transparence dépend moins de contraintes industrielles que de choix stratégiques des entreprises. Ainsi, Meta a vu son score chuter de 60 à 31, en ne publiant pas de rapport technique pour son modèle Llama 4, tandis que Google a été critiqué pour le retard dans la publication du modèle card et du rapport technique pour Gemini 2.5. L’ajout de quatre nouvelles entreprises, dont Alibaba, DeepSeek, Midjourney et xAI, a modifié la hiérarchie : toutes se situent dans le bas du classement. L’ancien leader OpenAI, désormais deuxième derrière, a perdu de sa place, tout comme Meta, qui est tombé à la dernière position. En revanche, AI21 Labs, passée de la dernière place en 2023, se hisse au sommet, illustrant que des changements de pratiques peuvent se produire. L’indice distingue clairement transparence et ouverture : un modèle peut être « ouvert » (ses poids disponibles) sans que l’entreprise soit transparente sur ses pratiques. Ainsi, si IBM et AI21 Labs sont à la fois ouvertes et transparentes, DeepSeek, Meta et Alibaba, malgré leur ouverture, restent très opaques. Cela souligne que l’ouverture ne garantit pas la transparence. Face à cette situation, des acteurs politiques comme la Californie, l’Union européenne et l’ancien conseiller en IA de la Maison-Blanche, Dean Ball, plaident pour des réglementations exigeant la transparence sur les risques des modèles de pointe. L’indice FMTI s’impose comme un outil essentiel pour guider ces politiques, en identifiant les domaines les plus résistants à l’amélioration sans intervention réglementaire. La transparence n’est pas une option, mais une condition fondamentale pour une gouvernance responsable de l’IA.
