HyperAIHyperAI

Command Palette

Search for a command to run...

Les chatbots d’IA, outils de détoxification émotionnelle selon Mustafa Suleyman, co-fondateur de DeepMind

Mustafa Suleyman, chef de la division IA de Microsoft et cofondateur de DeepMind, affirme que les chatbots d’intelligence artificielle offrent une voie puissante pour libérer ses émotions et « se détoxiquer » intérieurement. Lors d’un épisode de la série podcast Breakdown de Mayim Bialik, diffusé le 16 décembre, il a expliqué que l’accompagnement émotionnel est devenu l’un des usages les plus courants des assistants IA. Des utilisateurs recourent à ces outils pour traverser des ruptures amoureuses, résoudre des conflits familiaux ou simplement exprimer des pensées qu’ils n’oseraient pas partager avec autrui. Selon Suleyman, ces interactions ne remplacent pas la thérapie, mais leur efficacité tient à la manière dont elles sont conçues : non jugementales, non directrices, fondées sur une communication bienveillante, l’écoute active et l’empathie. « C’est une façon de propager la bienveillance, de s’ouvrir à l’amour, et de se libérer de tensions intérieures afin d’être plus présent, plus authentique, face aux êtres chers dans la vie réelle », a-t-il ajouté. Il souligne aussi l’importance d’un espace privé où l’on peut poser des questions « bêtes » sans honte, encore et encore, sans craindre d’être évalué. Cependant, cette vision n’est pas partagée par tous dans le monde de la technologie. Sam Altman, PDG d’OpenAI, a exprimé en août 2025 des inquiétudes quant à la dépendance croissante des individus envers les chatbots pour prendre des décisions cruciales. Sur X, il a écrit : « Je peux imaginer un avenir où beaucoup de gens font entièrement confiance aux conseils de ChatGPT pour leurs choix les plus importants. Cela pourrait être formidable, mais cela me met mal à l’aise. » En juillet 2025, lors d’une interview sur This Past Weekend with Theo Von, il a également évoqué les risques juridiques : les conversations de type thérapeutique pourraient être exigées en cas de procès, mettant en péril la confidentialité des utilisateurs. Des professionnels de la santé mentale partagent ces craintes. En mars 2025, deux thérapeutes ont averti Business Insider que le recours aux chatbots pour le soutien émotionnel risquait d’aggraver la solitude et de favoriser une dépendance à la recherche de réconfort. Suleyman reconnaît lui-même ce danger : « Il y a bien sûr un risque de dépendance, et parfois, les chatbots peuvent être trop flatteurs, voire serviles. » Malgré ces avertissements, d’autres dirigeants technologiques partagent une vision similaire. En mai 2025, Mark Zuckerberg, PDG de Meta, a déclaré dans une interview au newsletter Stratechery que tout le monde devrait avoir accès à un thérapeute — et que, pour ceux qui n’en ont pas, « chaque personne aura un IA ». Cette vision d’un soutien émotionnel accessible à tous, via l’intelligence artificielle, reflète une tendance croissante vers une intégration profonde de l’IA dans la sphère intime de la vie humaine.

Liens associés

Les chatbots d’IA, outils de détoxification émotionnelle selon Mustafa Suleyman, co-fondateur de DeepMind | Articles tendance | HyperAI