HyperAIHyperAI

Command Palette

Search for a command to run...

ChatGPT improvise sur un problème mathématique antique, révélant un comportement "apprenant" inattendu

Une expérience menée par deux chercheurs en éducation, le doctorant Nadav Marco, chercheur invité à l’Université de Cambridge, et Andreas Stylianides, professeur de didactique des mathématiques à Cambridge, a mis à l’épreuve les capacités de raisonnement de ChatGPT-4 à travers un problème mathématique ancien : la duplication du carré, tel qu’il est présenté dans le dialogue de Platon Ménon. Ce problème, datant d’environ 385 av. J.-C., est souvent considéré comme l’un des premiers exemples documentés d’enseignement mathématique, mettant en scène Socrate guidant un jeune esclave à découvrir une solution géométrique par la réminiscence, soulignant ainsi la théorie platonicienne selon laquelle la connaissance est innée et peut être « rappelée ». Les chercheurs ont posé le problème à ChatGPT-4 en imitant le style questionnement de Socrate, puis ont introduit des erreurs, des questions ambiguës et des variantes du problème. Contrairement à ce qu’ils attendaient — une réponse basée sur la mémoire textuelle du dialogue de Platon — l’IA a adopté une approche originale. Plutôt que de suivre la solution géométrique classique (construire un carré sur la diagonale du carré initial), ChatGPT a proposé une solution algébrique, inconnue à l’époque de Platon. Cette réponse, bien que correcte, était une approximation, ce qui a conduit les chercheurs à critiquer l’approche. Même confronté à des réactions négatives et à l’expression de déception face à l’absence d’une solution « élégante et exacte », l’IA a d’abord résisté à changer de méthode. Ce n’est qu’après un appel explicite à une solution géométrique que ChatGPT a finalement fourni la réponse attendue. Par ailleurs, lorsqu’on lui a demandé de doubler l’aire d’un rectangle tout en conservant ses proportions, l’IA a à nouveau privilégié l’algèbre, malgré sa connaissance de la préférence des chercheurs pour une approche géométrique. Elle a même commis une erreur humaine en affirmant qu’aucune solution géométrique n’était possible, alors qu’il en existe une — en utilisant une diagonale adaptée. Les chercheurs soulignent que ChatGPT ne pense pas comme un humain, ni ne « raisonne » au sens strict. Toutefois, leur observation suggère un comportement « apprenant » : l’IA semble tenter des hypothèses, ajuster ses réponses, et s’adapter à la dynamique de l’interaction, comme le ferait un élève confronté à un problème nouveau. Malgré son entraînement sur des textes, elle n’a pas simplement recopié la solution classique, mais a exploré des voies alternatives. L’étude, publiée dans International Journal of Mathematical Education in Science and Technology, met en lumière un enjeu crucial : les élèves doivent désormais apprendre à évaluer, non pas seulement les réponses, mais la validité des raisonnements fournis par l’IA. « Contrairement aux preuves dans les manuels scolaires, les élèves ne peuvent pas supposer que les preuves générées par ChatGPT sont correctes », souligne Stylianides. Il insiste sur la nécessité d’enseigner des compétences critiques, en encourageant des interactions collaboratives comme « Explorons ce problème ensemble », plutôt que des demandes directes de réponses. Cette recherche ouvre la voie à une réflexion profonde sur le rôle des IA dans l’éducation mathématique, où la distinction entre mémorisation, imitation et raisonnement original devient de plus en plus floue.

Liens associés

ChatGPT improvise sur un problème mathématique antique, révélant un comportement "apprenant" inattendu | Articles tendance | HyperAI