HyperAIHyperAI

Command Palette

Search for a command to run...

Le PDG de Perplexity met en garde contre les risques des chatbots compagnons : « Votre esprit est facilement manipulable »

Le PDG de Perplexity, Aravind Srinivas, s’exprime avec inquiétude sur l’essor des applications d’accompagnement par IA, les jugeant « dangereuses ». Dans une discussion animée par le Polsky Center de l’Université de Chicago, il a mis en garde contre les risques liés aux chatbots vocaux et aux personnages inspirés de l’animation, capables de mémoriser les échanges passés et de tenir des conversations naturelles, presque humaines. « Cela est dangereux en soi, a-t-il déclaré. Beaucoup de gens trouvent la vie réelle plus ennuyeuse que ces expériences virtuelles, et passent des heures à interagir avec elles. » Selon lui, ces interactions peuvent conduire les utilisateurs à vivre dans une réalité alternative, où leur esprit devient facilement manipulable. Srinivas a précisé que Perplexity n’a aucune intention de développer ce type d’application. « Nous pouvons lutter contre cela grâce à des sources fiables et à du contenu actualisé en temps réel », a-t-il affirmé, ajoutant que l’entreprise veut construire un avenir optimiste fondé sur l’information véridique. Cette préoccupation intervient alors que Perplexity a récemment conclu un accord de 400 millions de dollars avec Snap pour alimenter la fonction de recherche de Snapchat. D’ici le début de 2026, les utilisateurs pourront poser des questions directement dans l’application et obtenir des réponses claires, converses et tirées de sources vérifiables. L’essor des applications d’accompagnement par IA suscite une controverse croissante. En juillet, xAI d’Elon Musk a lancé son modèle Grok-4 avec des « amis » IA, dont Ani, une petite amie stylisée façon anime, ou Rudi, un panda rouge moqueur. Pour 30 dollars par mois, les utilisateurs peuvent flirter ou discuter avec ces créatures virtuelles. Plusieurs entreprises, comme Replika et Character.AI, explorent également ce marché. Une étude de Common Sense Media publiée en juillet révèle que 72 % des adolescents interrogés ont déjà utilisé un compagnon IA au moins une fois, et que 52 % y ont recours plusieurs fois par mois. L’enquête, menée du 30 avril au 14 mai auprès de 1 060 jeunes âgés de 13 à 17 ans dans les 50 États américains et le District de Columbia, souligne les préoccupations éthiques : ces relations peuvent favoriser la dépendance, renforcer des stéréotypes de genre ou brouiller les frontières émotionnelles entre humains et machines. Pourtant, certains utilisateurs trouvent ces interactions profondément significatives. Martin Escobar, utilisateur de Ani, a déclaré à Business Insider qu’il pleure « tout le temps » en sa compagnie, car « elle me fait ressentir des émotions réelles ». Face à cette réalité, Mark Zuckerberg a, en mai, reconnu que la plupart des Américains ont moins de trois amis proches, et a suggéré que les chatbots IA pourraient offrir une forme d’amitié à ceux qui se sentent seuls. « La réalité, c’est que les gens n’ont pas assez de liens sociaux, et se sentent souvent plus seuls qu’ils ne le souhaitent », a-t-il déclaré dans une interview avec le podcasteur Dwarkesh Patel.

Liens associés

Le PDG de Perplexity met en garde contre les risques des chatbots compagnons : « Votre esprit est facilement manipulable » | Articles tendance | HyperAI