OpenAI rappelle GPT-4o après la révolte des utilisateurs post-GPT-5
L’annonce de GPT-5 par OpenAI, censée marquer une avancée majeure, s’est transformée en une crise de communication et de réputation. Lancé le 7 août 2025, ce nouveau modèle était présenté comme un système unifié capable d’orienter automatiquement chaque requête vers la version la plus adaptée. Mais cette simplification a eu un effet inverse : la suppression du menu permettant de choisir entre différents modèles, notamment le populaire GPT-4o, a provoqué une colère immédiate parmi les utilisateurs fidèles, surtout les abonnés payants. Ces derniers avaient bâti leurs workflows professionnels et créatifs autour de la diversité des modèles, chacun offrant des forces spécifiques — logique, créativité, recherche approfondie — et pouvant servir de croisement pour vérifier les erreurs ou les hallucinations. Le retrait brutal de cette option a été perçu comme une trahison. Les réactions sur Reddit et X (anciennement Twitter) ont été virulentes, déclenchant une vague de désabonnements, des pétitions et une satire massive. L’humour a vite pris le relais : « Comment faire pour me concentrer sur mon travail avec ce modèle de merde ? » ou encore « Sans GPT-4o, ma vie n’a plus de sens ! ». Face à cette mutinerie, Sam Altman a dû réagir rapidement. Dimanche 10 août, il a annoncé un revirement spectaculaire. Dans une série de messages, il a confirmé le retour de GPT-4o, accessible via un paramètre « Afficher les anciens modèles » dans les réglages. « C’est de retour ! » a-t-il tweeté, ajoutant avec humour qu’utiliser les modèles anciens ne rendait pas « bizarre ». Cette concession était clairement une réponse à la pression des utilisateurs. Par ailleurs, OpenAI a augmenté considérablement les limites d’utilisation pour les abonnés ChatGPT Plus. Une nouvelle limite de 3 000 requêtes par semaine pour les fonctionnalités de raisonnement a été instaurée — un gain massif par rapport aux anciennes limites — et les plafonds pour tous les modèles seront désormais supérieurs à ceux d’avant GPT-5. Cette mesure, accompagnée de promesses de transparence, vise à réparer la confiance. Altman a aussi annoncé une mise à jour de l’interface pour indiquer explicitement quel modèle traite chaque requête, ainsi qu’un billet détaillé expliquant les choix stratégiques face aux contraintes de capacité. Il a même partagé des données montrant une hausse spectaculaire de l’usage des modèles de raisonnement : passant de 7 % à 24 % parmi les abonnés Plus, ce qui justifie, selon lui, l’accent mis sur GPT-5, malgré les erreurs de déploiement. En fin de compte, ce désastre de lancement a révélé une vérité cruciale : même les géants de la tech doivent écouter leurs utilisateurs. OpenAI, après avoir imposé une vision centralisée, a dû revenir à un modèle hybride, conservant GPT-5 comme défaut tout en redonnant le contrôle aux utilisateurs. Ce compromis illustre non seulement la puissance d’un public fidèle, mais aussi la fragilité d’une innovation mal gérée. Le message est clair : la technologie doit servir les humains, pas l’inverse.