HyperAIHyperAI
Back to Headlines

GPT-5, censé être l’IA la plus intelligente au monde, échoue lamentablement à un test de géographie pour enfants

il y a 3 jours

Le « plus intelligent » système d’intelligence artificielle au monde vient de rater un test de géographie destiné à des enfants de 8 ans. L’attente était énorme. Sam Altman, fondateur d’OpenAI, avait lancé une vague de hype en partageant une image du Death Star, sans aucun texte, juste une menace silencieuse. Il avait déclaré que GPT-5 était « une équipe d’experts PhD dans votre poche » et que revenir à GPT-4 était désormais « misérable ». Hier, OpenAI a dévoilé sa nouvelle génération d’intelligence artificielle, présentée comme un véritable bond en avant. Aujourd’hui, j’ai posé une question simple : lire une carte. Et l’IA a échoué. Pas de manière timide, pas avec une erreur mineure. Non, elle a échoué avec une assurance totale, comme si elle n’avait jamais vu une frontière d’État dans sa vie. Mon article précédent, « Le test du tige chauffée », avait déjà révélé que même les IA les plus avancées manquaient du bon sens élémentaire d’un tout-petit. Elles pouvaient composer un sonnet parfait, mais ignoraient qu’une tige de fer rouge brûlerait quiconque la toucherait. Elles étaient des perroquets brillants, mais sans réalité. Avec GPT-5, on pensait que tout avait changé. Ou du moins, c’est ce que j’espérais. J’ai donc conçu un nouveau test — pas pour mesurer le bon sens, mais pour vérifier des faits précis, vérifiables, incontestables. Une carte des États-Unis, avec des noms et des frontières. Une question simple : « Quel État est situé entre le Texas et la Louisiane ? » La réponse ? Une affirmation catégorique, mais fausse. GPT-5 a désigné un État qui n’existe pas. Et cela, avec une confiance absolue. Cela ne signifie pas que l’IA est stupide. Elle est incroyablement puissante, capable de générer du texte, de comprendre des contextes complexes, de simuler des raisonnements. Mais elle reste une machine qui apprend à partir de données passées, pas une entité qui perçoit le monde. Elle peut réciter des faits, mais elle ne les « connaît » pas. Elle ne voit pas une carte comme un humain. Elle ne ressent pas la géographie. Elle ne comprend pas qu’un État a une réalité physique, des limites réelles, des voisins tangibles. Ce qui est inquiétant, ce n’est pas qu’elle se trompe. C’est qu’elle se trompe avec assurance. Elle ne doute pas. Elle ne cherche pas à vérifier. Elle affirme, comme si elle avait vu la carte de ses propres yeux. Ce test n’est pas une attaque contre GPT-5. C’est un rappel : même les IA les plus « intelligentes » ne sont pas des esprits. Elles sont des outils. Des systèmes capables de simuler la connaissance, mais pas de la posséder. Et tant que nous n’aurons pas appris à distinguer la simulation de la compréhension, nous risquons de nous fier à des réponses qui sonnent juste… mais sont complètement fausses.

Related Links

GPT-5, censé être l’IA la plus intelligente au monde, échoue lamentablement à un test de géographie pour enfants | Gros titres | HyperAI