HyperAIHyperAI

Command Palette

Search for a command to run...

الواقع يخسر الحرب ضد التزييف العميق

في عام 2026، واجهت واقعية الصور والفيديوهات تحديًا غير مسبوق، حيث باتت الصور المزيفة والمحرّفة بالذكاء الاصطناعي أكثر واقعية من أي وقت مضى، وانطلقت بثورة عبر منصات التواصل الاجتماعي دون رقابة أو وعي أخلاقي. وسط هذا الفوضى، ظهرت محاولة لإنقاذ "الواقع المشترك" عبر نظام يُعرف بـ C2PA، وهو معيار يُعدّ من أبرز جهود الصناعة لتسمية المحتوى الرقمي منذ لحظة إنشائه. بدأ هذا النظام بمبادرة من شركة أدوبي، وانضم إليه لاحقًا كبرى شركات التكنولوجيا مثل مايكروسوفت، ميتا، جوجل، وآبل، بدعم من مُطوّري الذكاء الاصطناعي مثل OpenAI. يهدف C2PA إلى إدراج بيانات ميتا-بيانات (Metadata) في الصور والفيديوهات، تُظهر متى تم إنشاؤها، وما إذا كانت مُعدّلة، وما هي الأدوات المستخدمة في التعديل. الهدف المعلن هو تمكين المنصات من عرض زر بسيط يُظهر إن كان المحتوى "مُولّدًا بالذكاء الاصطناعي" أو "حقيقيًا"، مما يمنح المستخدمين قدرة على التمييز. لكن الواقع أظهر أن النظام يعاني من عيوب جوهرية. أولًا، C2PA لم يُصمم كأداة كشف عن الذكاء الاصطناعي، بل كأداة تتبع لعملية الإنتاج، ما يعني أنه لا يمكنه التمييز بين صورة حقيقية تم تعديلها بذكاء اصطناعي بسيط وبين صورة مُولّدة بالكامل. ثانيًا، البيانات المضمنة يمكن سحبها أو حذفها بسهولة، خاصةً في عمليات التحميل والنشر، ما يُنفي أي ضمان بثباتها. حتى الشركات التي تدعم النظام، مثل OpenAI، أقرّت بأن من السهل جدًا حذف هذه البيانات. الإشكالية الأكبر تكمن في التبني غير الشامل. جوجل تُستخدم النظام في هواتف بيكسل، لكن آبل لم تُعلن عن أي خطط لدمجه في آيفون، رغم أنّها من أبرز مصنّعي الكاميرات. أما شركات مثل سامسونج ونيكون وسوني، فرغم انضمامها إلى المبادرة، لم تُبقي على الكاميرات القديمة محدثة، ما يجعل التأثير غير فعّال على المدى الطويل. حتى منصات النشر مثل إنستغرام وتيك توك ويوتيوب تُظهر تباينًا في التبني، وغالبًا ما تُزيل البيانات أو لا تُظهرها على الإطلاق. أبرز دليل على فشل النظام هو تصرف إنستغرام، الذي سبق أن أطلق علامة "مُولّد بالذكاء الاصطناعي" على كل محتوى يحمل هذه البيانات، ثم سحبها بعد ردود فعل سلبية من المبدعين. أما موسيري، رئيس إنستغرام، فقد أقرّ في منشور بارز أن "الصور والفيديوهات لم تعد تُعتبر بالضرورة صادقة"، وأننا باتنا نبدأ بـ"الشك" في كل ما نراه. هذه العبارة تُعدّ إقرارًا بأن الحرب على الواقع قد خُسرت. السبب الجوهري للفشل ليس تقنيًا فحسب، بل اقتصاديًا ونفسيًا. الشركات التي تُدرّ巨额 أرباح من المحتوى المُولّد بالذكاء الاصطناعي لا مصلحة لها في تقليل قيمته عبر التسمية. كما أن التسمية تُشعر المبدعين بالتمييز، وتُضعف قيمتهم، ما يُثير غضبًا جماعيًا. وعندما تُستخدم هذه الصور من قبل جهات حكومية، مثل البيت الأبيض، لتصوير مظاهرات أو اعتقالات بطرق مُزيّفة، لا تظهر أي خطوة من المنصات لتصحيحها. في النهاية، لم يعد من الممكن الاعتماد على التسمية كحل. النظام لم يُثبت فعاليته، ولم يُعدّ مناسبًا للواقع المعقد الذي نعيشه. الحل الوحيد الممكن هو تدخل قانوني صارم، يفرض على المنصات والشركات الالتزام بمعايير محددة، ويفرض عقوبات على الاستخدام غير الأخلاقي للذكاء الاصطناعي. حتى ذلك الحين، ستبقى صورنا، ومقاطعنا، وذكرياتنا، عرضة للتحريف، وستظل واقعنا المُشترك في خطر.

الروابط ذات الصلة