Une IA dépasse les experts humains en analyse linguistique, remettant en question ce qui nous rend unique
Dans une avancée majeure, des modèles d’intelligence artificielle (IA) ont démontré une capacité à analyser la langue humaine de manière comparable à celle d’un expert linguiste, remettant en question l’idée que certaines facettes du langage soient exclusivement humaines. Jusqu’à présent, des figures comme Noam Chomsky affirmaient que les modèles de langage à grande échelle (LLM), bien qu’habiles à produire du texte, ne pouvaient pas véritablement raisonner sur la structure ou les règles du langage. Cette vision a été remise en cause par une étude menée par Gašper Beguš (UC Berkeley), Maksymilian Dąbkowski (ancien doctorant à Berkeley) et Ryan Rhodes (Rutgers University), qui ont soumis plusieurs LLM à des tests linguistiques rigoureux. Leur approche visait à éviter la simple répétition de connaissances acquises durant l’entraînement. Pour cela, ils ont conçu des tests basés sur des phrases artificielles, des langues inventées et des structures complexes, notamment la récursion — la capacité à imbriquer des phrases dans d’autres, comme dans « Maria s’est demandé si Sam savait que Omar avait entendu que Jane disait que le ciel est bleu ». Cette propriété, considérée comme fondamentale dans la théorie chomskienne du langage humain, permet une infinité de constructions à partir d’un nombre fini de règles. L’un des modèles, OpenAI o1, a non seulement compris ces structures, mais a aussi ajouté des niveaux de récursion supplémentaires, en construisant des arbres syntaxiques précis, y compris pour des phrases complexes comme « L’astronomie que les anciens que nous honorons ont étudiée n’était pas séparée de l’astrologie ». L’IA a également fait preuve d’une capacité remarquable à gérer l’ambiguïté, par exemple dans la phrase « Rowan a nourri son poulet », qui peut désigner un animal de compagnie ou un repas. o1 a généré deux arbres syntaxiques distincts, reflétant les deux interprétations — une performance rare chez les modèles computationnels, car elle suppose une compréhension contextuelle et des connaissances du monde. En phonologie, le modèle a réussi à déduire des règles sonores complexes dans des langues entièrement inventées, sans jamais les avoir rencontrées auparavant, comme la règle selon laquelle une voyelle devient « vibrante » lorsqu’elle est précédée d’un consonne sonore et occlusive. Ces résultats, salués comme « très importants » par Tom McCoy (Yale), suggèrent que les LLM ne se contentent plus de prédire le mot suivant, mais peuvent effectuer une analyse métalinguistique — penser au langage lui-même. David Mortensen (Carnegie Mellon) estime que ces résultats contredisent l’idée selon laquelle les modèles n’ont pas de véritable compréhension du langage. Toutefois, les chercheurs insistent sur une limite : aucun modèle n’a encore produit une découverte linguistique originale ou démontré une créativité réelle. Si l’amélioration continue dépend de l’augmentation de la puissance de calcul et des données d’entraînement, Beguš estime que les modèles pourraient un jour dépasser l’humain. Mortensen reste prudent, soulignant que les LLM sont encore limités par leur formation basée sur la prédiction de tokens. Pourtant, la tendance actuelle montre que les frontières entre langage humain et artificiel s’estompent. Comme le conclut Beguš, « il semble que nous soyons moins uniques que nous ne le pensions ».
