منشور فيريال على ريديت حول احتيال في تطبيق توصيل طعام تبين أنه مُنتج بالذكاء الاصطناعي
مُستخدم على موقع Reddit نشر منشورًا مشهورًا يدّعي أنه موظف في شركة توصيل طعام، ويُفصح عن تلاعب الشركة بسائقيها ومستخدميها، بما في ذلك سرقة نصّاب من الأجر والحوافز عبر خوارزميات ذكية. وصف المنشور، الذي جذب أكثر من 87 ألف تصويت إيجابي وانتشر على منصات مثل X، كيف أن الشركة تستغل ثغرات قانونية لسرقة أجر السائقين، وذكر وجود "درجة يأس" مبنية على الذكاء الاصطناعي لتحديد مدى استعداد السائقين للقبول بأسعار منخفضة. وقدم المُستخدم صورة لبطاقة موظف في UberEats ووثيقة داخلية بطول 18 صفحة تدعم قصته. لكن التحقيق الذي أجرته الصحفية كاسي نيوتن من منصة Platformer كشف أن القصة كُتبت بالكامل باستخدام الذكاء الاصطناعي. رغم أن بعض التفاصيل مثل قضية DoorDash التي تم فيها التوصل إلى تسوية بقيمة 16.75 مليون دولار بسبب سرقة نصّاب من السائقين كانت صحيحة، إلا أن القصة نفسها كانت خيالية. وعندما حاول نيوتن التحقق من صحة الوثيقة والصورة، استخدم أداة Google Gemini التي كشفت وجود علامة SynthID المدمجة في الصورة، مما يدل على أنها تم إنشاؤها بواسطة أداة ذكاء اصطناعي. الخبراء في مجال الكشف عن المحتوى المزيف، مثل ماكس سبيرو من شركة Pangram Labs، أشاروا إلى أن تطور نماذج الذكاء الاصطناعي التوليدي جعل من السهل إنتاج محتوى واقعي يبدو موثوقًا، حتى لو كان كاذبًا. ويُستخدم هذا النوع من المحتوى أحيانًا في حملات تسويقية مُصطنعة، حيث تدفع شركات ملايين الدولارات لدفع منشورات مُولدة بالذكاء الاصطناعي لتظهر وكأنها منشورات حقيقية من مستخدمين عاديين على منصات مثل Reddit. رغم توفر أدوات الكشف عن المحتوى المزيف، فإنها ليست دقيقة دائمًا، خصوصًا في حالات المحتوى المتعدد الوسائط. وبما أن المنشور قد انتشر بسرعة قبل الكشف عن كذبه، فإن الأثر كان كبيرًا، حتى أن أحد المحررين اعتقد أن المقال يتحدث عن أكثر من حالة واقعية واحدة، رغم أن كلها كانت مُختلقة. الحدث يعكس تحديًا متزايدًا في عصر المعلومات: كيف نميز بين الحقيقة والخيال عندما يصبح التزييف المُصطنع بسهولة واقعيًا جدًا؟ والنتيجة هي أن القارئ اليوم يصبح، في الواقع، شاهدًا متعدد التساؤلات، يتساءل عن كل صورة، كل نص، وكل "مصدر موثوق" يظهر على الشبكة.
