Un post viral sur Reddit sur les abus d’une appli de livraison révélé comme une escroquerie orchestrée par l’IA
Un post viral sur Reddit, prétendant être une révélation d’un lanceur d’alerte d’une application de livraison de nourriture, s’est révélé être une création entièrement générée par intelligence artificielle. L’utilisateur affirmait avoir travaillé pour une entreprise du secteur et dénonçait des pratiques illégales, notamment l’exploitation des chauffeurs et le vol des pourboires via des algorithmes manipulés. « Vous pensez toujours que les algorithmes sont truqués contre vous, mais la réalité est bien plus triste que toutes les théories du complot », écrivait-il, ajoutant qu’il rédigeait son message en état d’ivresse, dans une bibliothèque utilisant le Wi-Fi public. Le ton, le style et les détails techniques, comme une prétendue « note interne de 18 pages » détaillant un « score de désespoir » attribué aux chauffeurs par une IA, semblaient crédibles. Ce qui rendait le récit encore plus convaincant, c’est que DoorDash avait effectivement été condamné à verser 16,75 millions de dollars pour avoir détourné des pourboires, ce qui donnait une base de vérité à la fausse accusation. Le post a rapidement atteint plus de 87 000 votes positifs sur Reddit, été partagé sur X (anciennement Twitter), où il a accumulé 208 000 likes et 36,8 millions d’impressions. Casey Newton, journaliste chez Platformer, a contacté l’utilisateur via Signal. Ce dernier a envoyé une photo de badge d’employé UberEats et le document interne. Newton, initialement convaincu, a commencé à douter lorsqu’il a réalisé que la complexité du document et la qualité du badge étaient trop parfaites pour être authentiques. Il a ensuite utilisé Google Gemini avec la fonction SynthID, qui a permis de détecter que l’image du badge avait été générée par une IA, malgré les tentatives de manipulation comme le recadrage ou la compression. Max Spero, fondateur de Pangram Labs, une entreprise spécialisée dans la détection du contenu généré par IA, a souligné que la prolifération des outils d’IA a considérablement aggravé la situation. « Le contenu frauduleux sur internet s’est considérablement dégradé, et une partie de cela vient de l’usage croissant des modèles de langage à grande échelle, mais d’autres facteurs entrent aussi en jeu », a-t-il déclaré. Il a notamment mis en garde contre les campagnes de « viralité organique » payée, où des entreprises utilisent des posts générés par IA pour promouvoir leur marque ou nuire à la réputation de concurrents. Malgré les outils disponibles, la détection reste difficile, surtout pour les contenus multimédias. Même si une fausse information est démentie, elle a souvent déjà fait des ravages. Ce cas n’est d’ailleurs pas isolé : plusieurs «arnaques AI » sur les livraisons de nourriture ont circulé sur Reddit en même temps, illustrant une tendance inquiétante. La confiance dans les récits en ligne s’effrite, et les journalistes, les chercheurs et les internautes doivent désormais agir comme des détectives, soupçonnant chaque post d’être une fabrication. L’ère de l’IA a transformé la désinformation en un outil puissant, accessible, et presque invisible.
