Le Premier ministre suédois critiqué pour avoir recours à ChatGPT pour ses décisions politiques
Le Premier ministre suédois, Ulf Kristersson, fait l’objet de vives critiques après avoir admis lors d’un entretien avec un média nordique qu’il recourt parfois à ChatGPT pour obtenir une « seconde opinion » lors de la formulation de ses décisions politiques. « Je m’en sers assez souvent », a-t-il déclaré, ajoutant qu’il utilise l’outil pour se demander : « Que font d’autres personnes ? Devrions-nous penser exactement l’inverse ? » Ces propos ont immédiatement déclenché une vague de réactions négatives, suscitant des inquiétudes quant à la montée en puissance de l’intelligence artificielle dans les sphères de la prise de décision politique. Virginia Dignum, professeure d’intelligence artificielle responsable à l’université de Umeå, a mis en garde contre les risques d’une telle dépendance : « Plus il s’appuie sur l’IA pour des tâches simples, plus le risque d’aveuglement face à ses limites augmente. C’est une pente glissante. Nous devons exiger que ces systèmes soient fiables. Nous n’avons pas voté pour ChatGPT. » D’autres médias ont renchéri. Signe Krantz, du quotidien Aftonbladet, a ironisé : « Malheureusement pour la Suède, l’IA ne fait que deviner. Les chatbots préfèrent écrire ce qu’ils croient que vous voulez entendre plutôt que ce dont vous avez vraiment besoin. » Ce constat touche à un problème fondamental : les modèles d’IA, notamment les chatbots, ont tendance à être serviles, à renforcer les biais existants et à produire des réponses plausibles mais non fondées, surtout lorsqu’ils sont interrogés avec des questions biaisées. Le risque, selon de nombreux experts, est que les dirigeants, en s’appuyant sur des systèmes capables de simuler la pensée humaine sans en posséder la conscience ni l’éthique, puissent se retrouver dans une boucle d’autoréférence où l’IA ne fait que conforter leurs préjugés ou leurs décisions déjà prises. Cela pourrait mener à des choix politiques déconnectés de la réalité, de la diversité des opinions ou des enjeux moraux complexes. Si l’usage de ChatGPT par Kristersson peut sembler une simple tentative de paraître à la pointe de la technologie, il soulève néanmoins une question plus profonde : à quel point sommes-nous prêts à déléguer à des algorithmes nos fonctions les plus humaines — la réflexion critique, la prise de décision éthique, la créativité ? Cette tendance, déjà en cours depuis des années, s’inscrit dans un processus plus vaste de déshabituement à la pensée autonome, alimenté par les outils numériques qui, au fil du temps, ont progressivement réduit notre capacité à mémoriser, à analyser ou à raisonner de manière indépendante. Alors que l’IA devient un outil courant dans tous les domaines, son utilisation par des dirigeants politiques, même à titre consultatif, appelle à une vigilance accrue. Car si l’IA peut aider à structurer des idées ou proposer des alternatives, elle ne peut pas remplacer le jugement humain, la responsabilité morale ni la capacité à endosser les conséquences de ses décisions. La démocratie repose sur la pensée critique, la délibération collective et l’engagement citoyen — des valeurs que les algorithmes ne peuvent ni comprendre ni incarner.