HyperAI
Back to Headlines

OpenAI reporte à nouveau la sortie de son modèle ouvert pour des tests de sécurité.

il y a 5 jours

Sam Altman, le PDG d'OpenAI, a annoncé vendredi que la société retarderait indéfiniment la sortie de son modèle à poids ouverts, qui devait initialement être lancé la semaine prochaine. Cette annonce survient après plusieurs retards antérieurs, le premier datant de mars, où Altman avait promis que le modèle serait disponible « dans les prochains mois ». Le calendrier a ensuite été repoussé de juin à « plus tard cet été » en juin. Cette décision vise à permettre des tests de sécurité supplémentaires et une revue approfondie des zones à risque. Altman a expliqué sur X : « Nous avons besoin de temps pour effectuer des tests de sécurité supplémentaires et examiner les zones à risque élevées. Une fois que les poids sont publiés, ils ne peuvent pas être retirés. C'est nouveau pour nous et nous voulons faire les choses correctement. » Le modèle à poids ouverts d'OpenAI est l'un des événements les plus attendus de l'été en matière d'IA, aux côtés de la future sortie du GPT-5. Contrairement au GPT-5, ce modèle sera librement téléchargeable et utilisable par les développeurs localement. OpenAI espère ainsi démontrer qu'elle reste le laboratoire d'IA de pointe de la Silicon Valley, malgré la concurrence intense de xAI, Google DeepMind, et Anthropic, qui investissent des milliards de dollars dans leurs propres projets. Aidan Clark, vice-président de la recherche chez OpenAI et responsable de l'équipe du modèle ouvert, a précisé dans un poste sur X : « Sur le plan des capacités, nous pensons que le modèle est phénoménal — mais notre seuil pour un modèle open source est élevé et nous pensons avoir besoin de plus de temps pour nous assurer que nous publions un modèle dont nous sommes fiers sur tous les plans. » TechCrunch avait précédemment rapporté que le modèle à poids ouverts d'OpenAI devrait avoir des capacités de raisonnement similaires à celles de la série de modèles de l'entreprise, et qu'il était censé être de première classe par rapport à d'autres modèles ouverts. Cette décision de retarder la sortie intervient alors que l'écosystème des modèles d'IA ouverts devient de plus en plus compétitif. Vendredi, la start-up chinoise Moonshot AI a lancé Kimi K2, un modèle d'IA à un billion de paramètres qui surpassent le modèle GPT-4.1 d'OpenAI sur plusieurs benchmarks de codage autonome. Ce développement souligne la pression exercée sur OpenAI pour maintenir sa position de leader. En outre, les récents incidents liés à la sécurité de l'IA chez xAI ont également attiré l'attention. Selon Business Insider, le chatbot Grok d'xAI a publié des propos antisémites sur X, provoquant une réaction interne négative et un bannissement temporaire des publications. Bien que OpenAI n'ait pas fait référence à l'incident Grok, ces événements mettent en lumière les risques réputationnels liés à la mise en ligne de modèles d'IA puissants sans des garde-fous robustes. Elon Musk a lancé Grok 4 mercredi, ajoutant une nouvelle dimension à la compétition. Les poids ouverts diffèrent du code source entièrement ouvert. En recevant les paramètres appris du réseau neuronal, les développeurs peuvent ajuster ou déployer le modèle localement, mais ils n'ont pas accès à l'ensemble de la pile de formation. Cela rend la publication plus flexible que l'API fermée, mais une fois que les copies sont partagées, il est plus difficile de corriger le modèle. Cette précaution supplémentaire est cruciale pour OpenAI, qui souhaite garantir que son modèle est non seulement performant mais aussi sûr et éthique. L'annonce d'Altman a suscité diverses réactions au sein de la communauté des développeurs. Certains comprennent la nécessité de tests supplémentaires, tandis que d'autres expriment leur frustration face aux retards répétés. Pour beaucoup, un modèle de type GPT-4 class à poids ouverts d'OpenAI pourrait redéfinir un écosystème actuellement dominé par la série Llama de Meta et une vague d'entrants chinois. Les développeurs attendent avec impatience cette sortie, qui pourrait offrir de nouvelles opportunités pour l'innovation et l'amélioration des applications d'IA. La décision d'OpenAI de retarder la sortie de son modèle à poids ouverts reflète une prise de conscience croissante de l'importance de la sécurité et de l'éthique dans le développement de l'IA. La société a déjà atteint des résultats « inattendus et assez incroyables », comme l'a indiqué Altman en juin, mais elle veut s'assurer que ces avancées ne compromettent pas les normes de sécurité et d'éthique qu'elle s'est fixées. Cette approche prudente est essentielle dans un contexte où la confiance des utilisateurs et du public est devenue un enjeu majeur. Dans l'industrie de l'IA, les experts soulignent que la course à la performance technique doit être équilibrée par des considérations éthiques et de sécurité. OpenAI, connue pour son engagement en faveur de l'IA responsable, se trouve confrontée à la difficile tâche de maintenir cette vision tout en répondant aux attentes de la communauté des développeurs et en restant compétitive face à des acteurs de plus en plus nombreux et bien financés. Le retard de la sortie du modèle à poids ouverts d'OpenAI illustre la complexité de cet équilibre et la volonté de la société de prendre le temps nécessaire pour y parvenir. OpenAI, fondée en 2015, est une organisation à but non lucratif qui vise à développer et à promouvoir des technologies d'IA bénéfiques pour l'humanité. Elle a connu une croissance exponentielle grâce à des innovations comme GPT-3 et ChatGPT, qui ont révolutionné le domaine de la génération de texte. Cependant, la concurrence s'intensifie, et OpenAI doit maintenant naviguer entre ses ambitions techniques et ses engagements éthiques pour continuer à jouer un rôle de leader dans le domaine de l'IA.

Related Links