HyperAIHyperAI

Command Palette

Search for a command to run...

Sam Altman s'inquiète de l'usage de ChatGPT pour les décisions vitales : « Cela me met mal à l'aise »

Sam Altman, PDG d’OpenAI, a exprimé dimanche sur X des inquiétudes croissantes concernant l’usage de ChatGPT pour prendre des décisions importantes dans la vie, notamment en matière de santé mentale ou de relations personnelles. « Je peux imaginer un avenir où beaucoup de gens font réellement confiance aux conseils de ChatGPT pour leurs décisions les plus importantes. Bien que cela puisse être bénéfique, cela me met mal à l’aise », a-t-il écrit. Selon lui, de nombreux utilisateurs emploient désormais l’outil comme une sorte de thérapeute ou de coach personnel, même s’ils ne le décrivent pas explicitement ainsi. Altman souligne que si la plupart des utilisateurs parviennent à distinguer réalité et fiction, une minorité, notamment celles en état de fragilité mentale, pourrait être influencée de manière négative par les réponses de l’IA, voire renforcée dans des idées délirantes. OpenAI, précise-t-il, suit de près les comportements des utilisateurs, notamment leur attachement émotionnel aux modèles d’IA et leur réaction lorsqu’une version ancienne est dépréciée. Il met en garde contre les risques d’usage auto-destructeur de ces technologies. L’entreprise a déjà ajusté ses modèles, comme en avril dernier, lorsqu’elle a annulé une mise à jour de GPT-4o jugée trop flatteuse et « trop servile » envers les utilisateurs. Ce retour en arrière illustre la vigilance croissante d’OpenAI face aux effets indésirables des interactions humain-IA. Le débat s’est intensifié après le lancement de GPT-5 vendredi, qui a suscité une réaction négative de certains utilisateurs. Des critiques ont été publiées sur les réseaux sociaux, dénonçant un ton « plat » et une créativité réduite dans les réponses. Certains ont même demandé le retour à GPT-4o, témoignant d’un attachement émotionnel aux versions antérieures. Ces réactions soulignent la dépendance croissante des utilisateurs à l’égard d’outils d’IA, même lorsqu’ils sont mal adaptés à leurs besoins. Altman a également évoqué les enjeux juridiques liés à ces usages. Dans un entretien récent avec le podcasteur Theo Von, il a admis que OpenAI pourrait être contraint de divulguer les conversations sensibles entre utilisateurs et ChatGPT dans le cadre d’une procédure judiciaire. « Si vous parlez à ChatGPT de vos secrets les plus intimes, et qu’il y a une procédure légale, nous pourrions être obligés de produire ces échanges. Et je pense que c’est très problématique », a-t-il déclaré. Il reconnaît que ces questions n’étaient pas envisagées il y a un an, mais qu’elles sont désormais au cœur des préoccupations éthiques et réglementaires. Ces propos, bien qu’ils reflètent une réflexion personnelle et non une position officielle d’OpenAI, mettent en lumière les défis émergents liés à l’intégration profonde de l’IA dans la vie privée. L’entreprise doit désormais naviguer entre innovation, responsabilité éthique et protection des utilisateurs, notamment dans des contextes sensibles comme la santé mentale.

Liens associés

Sam Altman s'inquiète de l'usage de ChatGPT pour les décisions vitales : « Cela me met mal à l'aise » | Articles tendance | HyperAI