HyperAIHyperAI

Command Palette

Search for a command to run...

AI透明度集体倒退!IBM领跑,马斯克xAI垫底

Un rapport récent de l’Université de Stanford, intitulé The 2025 Foundation Model Transparency Index (FMTI), révèle une inquiétante tendance : malgré les progrès constants des modèles fondamentaux en termes de performance, leur transparence s’est globalement détériorée en 2025. IBM s’impose en tête avec un score de 95 sur 100, tandis que xAI de Elon Musk et Midjourney obtiennent les résultats les plus faibles, avec seulement 14 points. Ce rapport, troisième édition consécutive, évalue chaque année la transparence des grands modèles d’intelligence artificielle selon des critères précis, offrant ainsi un « bilan médical » quantifié des entreprises développant ces systèmes. L’indice moyen des modèles est passé de 58 points en 2024 à 40 en 2025, revenant ainsi au niveau observé en 2023. Cette baisse inquiétante s’explique par une moindre transparence dans des domaines clés : la composition des données d’entraînement, les ressources informatiques utilisées, ainsi que la surveillance des impacts après déploiement. Même si les entreprises communiquent davantage sur les évaluations de performance et les risques associés, elles peinent encore à fournir des informations fiables sur la reproductibilité, la présence de chevauchements entre données d’entraînement et de test, ou encore l’implication de tiers dans le processus. Parmi les 13 entreprises évaluées, dont Alibaba, DeepSeek et xAI pour la première fois, les profils se distinguent nettement. Les entreprises ouvertes, axées sur le B2B, celles qui publient leurs propres rapports de transparence ou qui ont signé le code de conduite européen sur l’IA générale obtiennent des scores supérieurs à la moyenne. En revanche, les modèles comme Qwen d’Alibaba et DeepSeek, bien qu’ayant des performances solides, obtiennent zéro point dans trois catégories critiques : utilisation des données, impact post-déploiement et surveillance continue. Ce score n’indique pas une absence totale de communication, mais plutôt un manque de conformité aux critères précis du rapport — une distinction importante. Selon le professeur Qiu Han de l’Université de Pékin, « la transparence ici ne signifie pas nécessairement le code ouvert. Elle repose sur une grille de notation stricte : si une entreprise ne fournit pas les informations demandées, même partiellement, le score est de zéro. » Ainsi, un modèle peut être performant sans être transparent, et inversement. Le modèle le plus transparent de l’étude, Granite 3.3 d’IBM, n’est pas nécessairement le plus puissant sur le terrain. La transparence n’est pas un substitut direct à la performance, mais elle est un pilier fondamental de la sécurité. Sans accès à l’information, il devient difficile d’identifier les biais, les abus de données ou les dérives éthiques. Et si une crise majeure survient, les régulateurs pourraient imposer des mesures drastiques, freinant inutilement l’innovation. Le rapport souligne que la transparence n’est qu’un stade intermédiaire. L’objectif ultime, selon Qiu Han, n’est pas la divulgation totale, mais la possibilité de mesurer, vérifier et contrôler le comportement des modèles — même sans accès complet à leur code ou à leurs données. Cela suppose une réforme des incitations, une clarification des responsabilités, et un cadre réglementaire équilibré. En somme, ce rapport ne juge pas la qualité des modèles, mais leur ouverture. Il s’agit d’un avertissement : la transparence n’est pas un luxe, c’est une condition indispensable à une IA responsable, sécurisée et durable.

Liens associés