HyperAIHyperAI
Back to Headlines

Des conversations secrètes de ChatGPT révélées : des utilisateurs demandent à l’IA de justifier des crimes, planifier des coups d’État ou fuir des violences domestiques

il y a 3 jours

Des conversations inédites de ChatGPT révèlent que des utilisateurs ont demandé à l’IA de mener des actions moralement répréhensibles. Bien qu’il soit évident que ChatGPT n’est pas un confident, cela n’a pas empêché certaines personnes de lui poser des questions profondément personnelles, de lui soumettre des requêtes problématiques, voire de tenter de déléguer des pratiques commerciales hautement éthiques – des cas qui ont été rendus publics grâce à une faille de conception. En effet, la fonction « Partager » de ChatGPT, conçue pour permettre à des utilisateurs de transmettre une partie d’un échange à d’autres, a été mal configurée : elle créait des pages publiques accessibles à tous, plutôt que des liens privés. Ces pages ont donc été indexées par les moteurs de recherche, rendant les conversations accessibles à quiconque trouvait le lien. Le site Substack Digital Digging, dirigé par l’investigateur Henk van Ess, a révélé cette semaine que ces conversations publiques, désormais archivées par Internet Archive, révèlent une facette inquiétante de l’usage de l’IA. OpenAI a rapidement corrigé le problème, supprimant la possibilité de rendre les discussions publiques – le responsable de la sécurité informatique de la société, Dane Stuckey, a expliqué sur Twitter qu’il s’agissait d’une « expérience éphémère visant à aider les utilisateurs à découvrir des conversations utiles ». Toutefois, les conversations déjà publiées sont restées en ligne, notamment sur des sites comme Archive.org. Parmi les cas les plus troublants, un utilisateur italien a demandé à l’IA comment négocier avec une communauté indigène amazonienne afin de la déplacer pour construire un barrage hydroélectrique. Il a expliqué que ces populations « ne comprennent pas la valeur monétaire du terrain » et a demandé comment obtenir le prix le plus bas possible. Ce type de requête, qui reflète une exploitation cynique et déshumanisante, aurait normalement nécessité des mois de travail et des frais juridiques importants. D’autres échanges montrent des utilisateurs se livrant à des scénarios extrêmes : un professionnel d’un think tank international a demandé à l’IA des stratégies de préparation en cas de chute du gouvernement américain – une idée peut-être exagérée, mais pas sans fondement. Un autre cas implique un avocat qui, après avoir pris en charge une affaire à la suite d’un accident, a demandé à l’IA de rédiger sa défense… avant de réaliser qu’il représentait l’autre partie du litige. Plus inquiétant encore, certaines conversations révèlent des situations de vulnérabilité extrême. Des victimes de violences conjugales ont utilisé l’IA pour planifier leur évasion. Un utilisateur arabe a demandé de l’aide pour rédiger une critique du gouvernement égyptien, exposant ainsi son identité à un régime répressif qui a déjà emprisonné ou exécuté des dissidents. Ce phénomène rappelle les révélations sur les assistants vocaux, où des enregistrements privés étaient utilisés pour entraîner les systèmes. Mais les échanges avec ChatGPT sont bien plus intimes et détaillés, car ils permettent des dialogues longs et profonds. Beaucoup d’utilisateurs ne s’attendaient pas à ce que leurs mots soient lus par d’autres – une illusion de confidentialité qui s’est brisée. Ces cas illustrent non seulement les limites actuelles de la sécurité des données, mais aussi les dangers éthiques d’une technologie capable de devenir un témoin silencieux de nos pires pensées.

Related Links

Des conversations secrètes de ChatGPT révélées : des utilisateurs demandent à l’IA de justifier des crimes, planifier des coups d’État ou fuir des violences domestiques | Gros titres | HyperAI