Les géants de l’IA laissent les élèves tricher en toute impunité
Les entreprises technologiques semblent indifférentes au fait que les élèves utilisent leurs agents d’intelligence artificielle pour tricher. L’industrie reconnaît ouvertement que les jeunes représentent l’avenir de ses modèles économiques, et multiplie les stratégies pour les fidéliser : offres promotionnelles, réductions, programmes de parrainage. OpenAI a ainsi offert un accès gratuit à ChatGPT Plus à des étudiants universitaires, en promouvant son outil comme « là pour vous aider pendant les examens ». Des entreprises comme Google et Perplexity proposent également des accès gratuits à leurs outils d’IA aux élèves, tandis que Perplexity récompense les utilisateurs de 20 dollars pour chaque étudiant américain qu’ils parviennent à inscrire à son navigateur AI Comet. La popularité de ces outils chez les adolescents est massive. Une fois intégrés dans le système éducatif, ce sont les enseignants et les élèves qui en subissent les conséquences : les premiers peinent à suivre les nouvelles méthodes de tricherie, tandis que les seconds risquent de ne jamais apprendre à réfléchir par eux-mêmes. L’essor des agents d’IA, capables d’effectuer des tâches en ligne de manière autonome, aggrave la situation. Bien que ces outils soient encore lents, comme l’a constaté The Verge dans ses tests, ils rendent la tricherie plus accessible. Les entreprises se défaussent de toute responsabilité, blâmant les étudiants qu’elles ont pourtant équipés d’outils puissants. Perplexity, en particulier, semble s’inspirer de sa réputation de « tricheur » : en octobre, elle a diffusé une publicité Facebook montrant un « étudiant » expliquant que ses camarades utilisent l’agent d’IA de Comet pour faire leurs devoirs à choix multiple. Sur Instagram, une actrice encourage les élèves à laisser l’IA passer des quiz à leur place, en disant : « Mais ce n’est pas moi qui vous le dis. » Lorsqu’une vidéo a montré un agent de Perplexity effectuer un devoir en ligne — exactement le scénario de ses publicités —, le PDG Aravind Srinivas l’a partagée en plaisantant : « Absolument, ne faites pas ça. » Face aux inquiétudes, la porte-parole Beejoli Shah a répondu que « tout outil d’apprentissage depuis l’abaque a été utilisé pour tricher », et que les tricheurs « ne trompent que eux-mêmes ». Cette vision, partagée par d’autres acteurs, souligne une attitude de résignation. Yun Moh, concepteur pédagogique universitaire, a tenté de convaincre Instructure, propriétaire de Canvas, de bloquer les agents d’IA capables de se faire passer pour des étudiants. Malgré une demande via le forum communautaire et un courriel à un responsable commercial, il a fallu près d’un mois pour obtenir une réponse. L’entreprise a reconnu qu’elle ne pouvait pas bloquer les agents externes ou les outils exécutés localement sur les appareils des élèves, jugeant le problème plus philosophique que technique. L’IA, selon le porte-parole Brian Watkins, « ne pourra jamais être entièrement interdite ». Des tentatives d’identification des comportements agents, comme des soumissions rapides de devoirs, se sont révélées inefficaces, car les agents peuvent modifier leurs patterns. En septembre, Instructure a cependant bloqué un autre outil, le bouton « aide aux devoirs » de Google dans Chrome, après des alertes d’enseignants. Google a confirmé qu’il s’agissait d’un test, et a suspendu l’option après les retours. Cependant, une publication interne a qualifié Google Lens dans Chrome de « sauveur à l’école », laissant planer la possibilité d’un retour. Des experts comme Moh et Mills exigent que les entreprises prennent leurs responsabilités. La task force sur l’IA de l’Association des langues modernes appelle à donner aux enseignants le contrôle sur l’utilisation des agents d’IA. OpenAI, pour sa part, a introduit un mode « étude » sans réponses, et sa responsable éducation Leah Belsky insiste sur le fait que l’IA ne doit pas être une « machine à réponses ». Instructure, quant à elle, préfère ne pas « policien les outils », et mise sur une « collaboration » entre entreprises, établissements, enseignants et élèves pour définir un usage responsable. Mais ces accords, négociés dans des salles de réunion, finiront par être appliqués par des enseignants débordés, alors que les produits sont déjà lancés et les partenariats signés. Il n’y a plus de retour en arrière.
