HyperAIHyperAI
Back to Headlines

OpenAI lance GPT-OSS, modèle open source fonctionnant même sur 16 Go de mémoire

il y a 3 jours

OpenAI a surpris le monde de l’intelligence artificielle en lançant, le 5 août, deux nouveaux modèles d’inférence open source : gpt-oss-120b (117 milliards de paramètres) et gpt-oss-20b (21 milliards). Ces modèles, disponibles gratuitement sur Hugging Face sous licence Apache 2.0, marquent un tournant majeur pour l’entreprise, qui n’avait pas publié de poids open source depuis GPT-2 en 2019. Bien que les données d’entraînement ne soient pas divulguées, les modèles ont été formés sur des corpus axés sur les sciences, les connaissances générales et la programmation, tout en éliminant les contenus sensibles comme ceux liés à la chimie, la biologie ou les armes nucléaires. Le gpt-oss-120b, conçu pour des environnements puissants, peut fonctionner sur une seule carte GPU disposant de 80 Go de mémoire, et rivalise presque avec l’expert o4-mini d’OpenAI en tâches d’inférence. Le gpt-oss-20b, plus léger, est optimisé pour les machines personnelles : il peut tourner sur un laptop avec 16 Go de RAM, ce qui le rend idéal pour le développement rapide. Des utilisateurs sur Reddit ont déjà partagé leurs expériences de lancement local du modèle 20b. Les deux modèles utilisent une architecture à experts mélangés (MoE), avec respectivement 128 et 32 experts, chacun activant 4 experts par jeton. Ils disposent d’une fenêtre contextuelle de 128k tokens et supportent des fonctionnalités avancées comme le raisonnement par chaîne (Chain-of-Thought), la sortie structurée et l’appel d’outils, tout en étant compatibles avec l’API Responses d’OpenAI pour construire des workflows complexes. Dans des tests sur des benchmarks comme AIME, GPQA, MMLU et SWE-bench, le gpt-oss-120b atteint des performances équivalentes ou supérieures à celles d’o4-mini, et même dépasse certains modèles propriétaires comme o1 et GPT-4o sur HealthBench. Comparé à DeepSeek, il surpasse légèrement le modèle R1 28B sur AIME (avec outils), avec un écart de 5,7 %, bien que les résultats soient très proches sans cet indicateur. OpenAI insiste sur la sécurité : les modèles ont subi des évaluations rigoureuses, y compris des tests de compromission par micro-formation vers des domaines sensibles. Même après ces attaques, le gpt-oss-120b n’a pas atteint le seuil de « haut risque » défini par l’entreprise. En outre, les chaînes de raisonnement sont non supervisées, permettant aux chercheurs d’explorer des systèmes de surveillance autonomes pour détecter les comportements inappropriés. Pour encourager la sécurité du paysage open source, OpenAI lance un défi de « red teaming » avec un prix de 500 000 dollars. Des plateformes comme AWS, Azure, Baseten et Databricks proposent déjà des déploiements cloud. Des outils comme LM Studio ou Ollama permettent une utilisation locale. Cette initiative répond à la montée des modèles open source chinois comme DeepSeek et Qwen, et reflète un changement de stratégie. Sam Altman a reconnu que OpenAI avait été « du mauvais côté » sur l’open source. Enfin, il rappelle l’objectif fondateur : que l’IA générale (AGI) serve l’humanité, via une pile open source fondée sur des valeurs démocratiques, accessible à tous. Ce geste marque une nouvelle ère de collaboration et d’innovation ouverte dans l’IA.

Related Links