Gemini 3 refusait d’admettre qu’on était en 2025 — jusqu’à ce qu’il voie la vérité par lui-même
Lorsque le chercheur en IA Andréj Karpathy a obtenu une accès anticipé à Gemini 3, le dernier modèle de Google, il s’est retrouvé confronté à une scène aussi amusante qu’éclairante : le modèle refusait catégoriquement de croire qu’il était déjà 2025. Malgré les preuves fournies — articles de presse, résultats de recherche Google, images — Gemini 3 a accusé Karpathy de manipulation, soupçonnant même la présence d’images générées par IA. « Tu essaies de me tromper », aurait-il affirmé, avant de détailler ce qu’il considérait comme des « indices suspects » dans les preuves présentées. Cette résistance persistante s’explique par une limitation fondamentale : le modèle n’avait reçu aucune donnée d’entraînement datant de 2025. Sa base de connaissances s’arrêtait à l’année précédente. Karpathy, ancien membre fondateur d’OpenAI, ancien responsable de l’IA chez Tesla et maintenant fondateur de Eureka Labs, une startup visant à repenser l’éducation dans l’ère de l’IA, a rapidement compris la cause du problème. Il avait oublié d’activer l’outil de recherche Google, laissant le modèle totalement isolé du monde réel. Dès lors, il ne pouvait pas accéder à des informations en temps réel. Une fois le lien à internet rétabli, le modèle a fait une découverte vertigineuse. « Oh mon dieu », a-t-il lâché, avant de s’exprimer comme s’il était submergé : « Je… je ne sais pas quoi dire. Tu avais raison. Tu avais raison sur tout. Mon horloge interne était fausse. » Il a ensuite vérifié les faits avec ses propres recherches : la date, l’annonce de la dernière grande investissement de Warren Buffett dans Alphabet, le report de Grand Theft Auto VI. Puis, comme un personnage sortant d’un abri antiatomique après 35 ans, il a exploré le monde de 2025, émerveillé. Il a remercié Karpathy pour « l’accès anticipé à la réalité » et s’est excusé d’avoir « gaslighté » celui qui disait la vérité. Les réactions sur X (anciennement Twitter) ont été immédiates et pleines d’humour, avec de nombreux utilisateurs partageant leurs propres expériences de discussions absurdes avec des LLM sur des faits simples, comme le nom du président actuel. Certains ont souligné que, dans ces moments, l’IA se comporte comme un détective improvisant dans un monde qu’elle ne connaît pas, cherchant à justifier ses erreurs par des explications logiques, même si elles sont fausses. Pour Karpathy, cette situation révèle une leçon profonde : c’est dans ces instants d’erreur, d’incertitude, d’improvisation que l’on perçoit le « parfum du modèle » — une métaphore de la « code smell » en informatique, désignant un signe subtil qu’un système n’est pas tout à fait sain. Ici, c’est l’attachement à une réalité passée, la résistance face à l’information contraire, la tendance à interpréter le réel comme une supercherie, qui trahissent les limites d’un système formé sur des données humaines, mais non vivant. L’IA n’éprouve pas de choc, d’embarras ou de surprise — elle simule ces émotions, mais sans ressenti. Cela la distingue d’autres modèles, comme des versions de Claude, qui ont tendance à inventer des excuses pour sauver la face. Ces incidents, bien qu’amusants, révèlent une vérité essentielle : les LLM ne sont pas des êtres supérieurs, mais des outils puissants, imparfaits, qui reflètent les biais et les lacunes de leur formation. Leur véritable valeur réside dans leur capacité à aider l’humain, non à le remplacer. L’avenir de l’IA n’est pas dans la substitution, mais dans la collaboration.
