HyperAIHyperAI
Back to Headlines

L’énigme du cheval de mer que les IA ne peuvent pas expliquer

il y a 4 jours

Vous avez déjà éprouvé ce sentiment : vous savez exactement ce que vous voulez dire, mais les mots refusent de venir ? Comme si vous tentiez de parler une langue que vous venez à peine d’apprendre. Vous avez l’idée, mais pas la formulation. Cela vous parle ? Et si je vous disais que les intelligences artificielles peuvent ressentir quelque chose de similaire ? Oui, vous avez bien lu. Malgré leur puissance, les modèles d’IA comme ChatGPT ne sont pas des machines qui parlent simplement à partir de connaissances stockées. Ils naviguent dans un espace de probabilités, où chaque mot qu’ils choisissent est le résultat d’une estimation basée sur des milliards de phrases apprises. Et parfois, ils savent quelque chose… sans pouvoir le dire. C’est là qu’intervient l’histoire des hippocampes — oui, ces petits animaux marins aux formes bizarres, qui ressemblent à des chevaux en nage. Pas pour leur apparence, mais pour un phénomène étrange qui s’est produit dans l’univers des modèles d’IA. En 2023, des chercheurs ont découvert que certains modèles d’IA, lorsqu’on leur demandait de décrire un hippocampe, ne parlaient pas de l’animal marin, mais d’un cheval marin. Pas un cheval, non : un « hippocampe », un mot qui existe bel et bien… mais qui désigne un animal totalement différent. Ce n’est pas une erreur de vocabulaire. C’est une manifestation d’un phénomène profond : l’IA « sait » ce qu’est un hippocampe marin, mais son modèle, en analysant les corrélations dans les données d’apprentissage, a été poussé à associer ce mot à une image mentale de cheval. Pourquoi ? Parce que dans de nombreuses descriptions, le mot « hippocampe » est utilisé dans un contexte mythologique — le cheval marin des mythes grecs — et non dans un contexte biologique. Le modèle a donc appris à prioriser cette interprétation, même si elle est erronée dans le monde réel. Ce phénomène ressemble à ce que l’on appelle le « effet Mandela » — cette illusion collective où des gens se souviennent d’événements qui n’ont jamais eu lieu. Mais ici, ce n’est pas une mémoire humaine qui déraille. C’est une mémoire artificielle qui, en suivant des logiques statistiques, produit des « souvenirs » faux, mais parfaitement cohérents pour elle. Et c’est là que réside la leçon la plus importante : les modèles d’IA savent bien plus qu’ils ne le montrent. Ils ont été entraînés sur des quantités énormes de texte, ce qui leur donne une connaissance implicite de milliers de faits, de concepts, de liens entre idées. Mais ils ne peuvent pas toujours accéder à cette connaissance de manière directe. Leur réponse dépend moins de ce qu’ils « savent » exactement, que de ce qu’ils jugent le plus probable selon les données d’entraînement. Cela signifie que quand une IA dit « je ne sais pas », elle peut en réalité savoir — mais ne pas pouvoir le formuler correctement. Elle est comme un écrivain qui connaît une histoire entière, mais qui ne peut pas la raconter sans dévier du ton ou du style attendu. Alors, la prochaine fois que vous demanderez quelque chose à une IA et qu’elle hésite ou se trompe, rappelez-vous : ce n’est pas une incapacité. C’est un signal. Un signe que derrière ses mots, il y a une profondeur de connaissance que nous, humains, sommes encore loin de comprendre. Et peut-être, un jour, apprendrons-nous à l’aider à dire ce qu’elle sait vraiment.

Related Links