وراء يوم كذبة أبريل: التكنولوجيا تحارب الاحتيال أثناء إنشائه

ردًا على مشكلة الأخبار المزيفة المتزايدة الخطورة، تستخدم فرق بحثية مختلفة تقنية الذكاء الاصطناعي لتحديد الأخبار المزيفة وتحديدها بدقة أكبر. ولكن التكنولوجيا نسبية. ومن ناحية أخرى، هناك في الظلام موجة أخرى من الأشخاص الذين يستخدمون باستمرار تقنية الذكاء الاصطناعي لإنتاج أخبار وتعليقات كاذبة.
هل تلقيت أي أخبار كاذبة اليوم؟ وبحسب الإحصائيات، زاد استخدام مصطلح "الأخبار الكاذبة" بنسبة 365% منذ عام 2016.
قال زوكربيرج ذات مرة إن بناء نظام شامل للكشف عن الأخبار المزيفة يستغرق وقتًا طويلاً لأن الفكرة التقليدية هي فهم محتوى الرسالة وإصدار الأحكام بناءً على وقت الإصدار والمصدر، وهو ما يتطلب الكثير من العمل أو المتطلبات التقنية.
ولكن ماذا لو غيّرنا تفكيرنا؟ قد لا تحتاج الذكاء الاصطناعي إلى استخدام التفكير البشري لحل هذه المشكلة. في الواقع، مع التطورات الحالية، هناك بالفعل أساليب جديدة للذكاء الاصطناعي تساعد الأشخاص على الحكم على الأخبار المزيفة على الإنترنت.
الأخبار الكاذبة لا تقتصر على يوم كذبة أبريل فقط
قبل أيام قليلة فقط، أعلنت شركة مايكروسوفت أنها لن تحتفل بيوم كذبة أبريل هذا العام. ربما لا يكون هذا الخبر مفاجئًا، حيث اعتذرت جوجل علنًا للمستخدمين عن نكتة كبيرة في يوم كذبة أبريل.

بعد دخول عصر الإنترنت، تطور يوم كذبة أبريل تدريجيًا من بعض المقالب الصغيرة إلى بعض الأحداث الكبرى المنتشرة على الإنترنت. وقد تسبب هذا السلوك الذي يبدو وكأنه مزحة، في حالة من الذعر بين الجمهور في بعض الأحيان بسبب انتشاره على نطاق واسع وكونه "حقيقيًا" للغاية.
لقد أصبح هذا اليوم، الذي كان من المفترض أن يكون عطلة للاسترخاء، يومًا يخشاه بعض الناس بسبب إنتاج كمية كبيرة من الأخبار الكاذبة في هذا اليوم.
إن ما يسمى بالأخبار المزيفة هو في الغالب محتوى كاذب تنتجه بعض وسائل الإعلام بهدف زيادة عدد القراء أو المشاركة عبر الإنترنت. إن منتجي الأخبار المزيفة يشبهون عناوين الأخبار المثيرة للنقر، حيث يتجاهلون صدق المحتوى من أجل جذب الانتباه أو حركة المرور.

غالبًا ما تحتوي الأخبار المزيفة على عناوين جذابة، أو قصص مثيرة، أو تطارد موضوعات رائجة. وبسبب هذا، من المرجح أن تولد الأخبار المزيفة عائدات إعلانية وتجذب الانتباه.
بالإضافة إلى إنشاء الحيل الموجهة في يوم كذبة أبريل، ومع سهولة استخدام الإنترنت وانخفاض عتبة التغطية الإعلامية، تنتشر الأخبار الكاذبة أيضًا بشكل أسرع وعلى نطاق أوسع من الأخبار الحقيقية في الأيام العادية. أفضل طريقة لحل هذا الصداع هو أن يكون لدينا مرشح ذكي لمساعدتنا على التصفية.
مكافحة الأخبار المزيفة: معهد ماساتشوستس للتكنولوجيا يستخدم الذكاء الاصطناعي لتحديد الأخبار المزيفة من أنماط اللغة
استخدم باحثون في معهد ماساتشوستس للتكنولوجيا طريقة لتحديد الأخبار المزيفة بالاعتماد على أنماط اللغة.

في ورقة بحثية بعنوان "لغة الأخبار المزيفة: فتح الصندوق الأسود لأجهزة الكشف القائمة على التعلم العميق"، استخدم فريق بحثي من معهد ماساتشوستس للتكنولوجيا نموذج التعلم الآلي لالتقاط الاختلافات الدقيقة في لغة الأخبار الحقيقية والأخبار المزيفة لتحديد ما إذا كانت الأخبار صحيحة أم كاذبة.
لقد استخدموا شبكة عصبية ملتوية وقاموا بتدريبها على مجموعات بيانات الأخبار المزيفة والأخبار الحقيقية. لأغراض التدريب، استخدموا مجموعة بيانات بحثية شائعة حول الأخبار المزيفة من Kaggle، والتي تحتوي على حوالي 12000 مقالة إخبارية مزيفة من 244 موقعًا مختلفًا. وتأتي مجموعة البيانات الإخبارية الحقيقية من أكثر من 2000 تقرير إخباري من صحيفة نيويورك تايمز وأكثر من 9000 تقرير إخباري من صحيفة الجارديان.

يلتقط النموذج المدرب لغة المقالات على هيئة "تضمينات كلمات"، حيث يتم تمثيل الكلمات كمتجهات، وهي في الأساس مجموعات من الأرقام، مع كلمات ذات معاني دلالية متشابهة متجمعة بشكل أوثق معًا، مما يكشف عن أنماط اللغة المشتركة بين الأخبار الحقيقية والمزيفة. وبعد ذلك، بالنسبة لمقالة جديدة، يقوم النموذج بمسح النص بحثًا عن أنماط مماثلة ويرسلها عبر سلسلة من الطبقات. تحدد طبقة الإخراج النهائية احتمالية كل نمط: حقيقي أو مزيف.
يلخص النموذج خصائص الكلمات التي تظهر بشكل متكرر في الأخبار الحقيقية أو المزيفة. على سبيل المثال، تميل الأخبار المزيفة إلى استخدام صفات مبالغ فيها أو فائقة، في حين تميل الأخبار الحقيقية إلى استخدام كلمات محافظة نسبيًا.

ويقول باحثو معهد ماساتشوستس للتكنولوجيا إن جزءًا من أبحاثهم يكشف أيضًا عن الصندوق الأسود لتقنية التعلم العميق، وهو معرفة الكلمات والعبارات التي يلتقطها هذا النموذج والتنبؤ بها وتحليلها، أي معرفة أساس وطريقة حكم التعلم العميق.
عنوان الورقة: https://cbmm.mit.edu/sites/default/files/publications/fake-news-paper-NIPS.pdf
مكافحة الأخبار المزيفة: Fabula AI يحدد الأخبار المزيفة بناءً على كيفية انتشارها
وذكرت شركة التكنولوجيا البريطانية "فابولا إيه آي" أنها تستخدم طريقة انتشار الأخبار لتحديد الأخبار المزيفة.

تستخدم Fabula AI تقنية التعلم العميق الهندسية للكشف عن الأخبار المزيفة. بدلاً من النظر إلى محتوى الأخبار، ينظر هذا النهج إلى كيفية انتشار هذه المعلومات على شبكات التواصل الاجتماعي ومن ينشرها. وقد تقدموا بطلب للحصول على براءة اختراع لهذه التكنولوجيا.
قال مايكل برونشتاين، المؤسس المشارك وكبير العلماء في شركة فابولا للذكاء الاصطناعي: "نراقب منذ فترة طويلة كيفية انتشار الأخبار على منصات التواصل الاجتماعي. وبعد التحليل، وجدنا أن الأخبار الزائفة والحقيقية تنتشر بطرق مختلفة. يكمن جوهر التعلم العميق الهندسي في قدرته على معالجة بيانات بنية الشبكة. يمكننا دمج بيانات غير متجانسة، مثل خصائص المستخدم، وتفاعلات المستخدمين على منصات التواصل الاجتماعي، وانتشار الأخبار نفسها. وبالتالي، إصدار أحكام."
وأخيرا، سوف تقوم الذكاء الاصطناعي بتصنيف المحتوى على أساس مصداقية الأخبار الحقيقية أو الكاذبة وإعطاء درجة تقييم. تصور أنماط انتشار الأخبار المزيفة والحقيقية: المستخدمون الذين يشاركون الأخبار المزيفة بشكل أساسي يظهرون باللون الأحمر، في حين أن المستخدمين الذين لا يشاركون الأخبار المزيفة على الإطلاق يظهرون باللون الأزرق. وقالت شركة فابولا إيه آي إن هذا أظهر تمايزًا واضحًا بين المجموعات واختلافات يمكن التعرف عليها على الفور في أنماط الانتقال.

وأضافت الشركة أن الميزة الرئيسية لتقنية الذكاء الاصطناعي "فابولا" هي أنها مستقلة عن محتوى ولغة الأخبار، ولأنها تعتمد على السلوك الجماعي لمستخدمي منصات التواصل الاجتماعي، فمن الصعب مواجهتها بالطرق التقنية. علاوة على ذلك، يتمتع النظام بالقدرة على اكتشاف الأخبار المزيفة بسرعة أكبر بكثير وفي فترة زمنية قصيرة بعد النشر بدقة عالية (ROC AUC > 93%).
مدونة المقالات: https://fabula.ai/news-index/2019/2/7/fabula-ai-announces-breakthrough-in-algorithmic-fake-news-detection
وبطبيعة الحال، فإن طريقة استخدام الذكاء الاصطناعي للحكم على الأخبار المزيفة لم تصل بعد إلى المرحلة التي يمكن استخدامها بشكل كامل علناً. إنه في مرحلة البحث حاليًا أو يتطلب مساعدة بشرية، ولا يزال هناك بعض التفاصيل التي تحتاج إلى تحسين.
ولكن من ناحية أخرى،كما أصبحت قدرة الذكاء الاصطناعي على توليد النصوص والصور أكثر نضجًا مع تطور التكنولوجيا. في كثير من الأماكن، وصل الأمر إلى حد عدم القدرة على التمييز بين المزيف والحقيقي. ربما تم كتابة قطعة الأخبار الكاذبة التي رأيتها اليوم بواسطة الذكاء الاصطناعي.وعلى نحو ما، فإن هذا في الواقع يحث على تحسين تكنولوجيا الكشف.
الأخبار المزيفة: OpenAI تقوم بتصنيع أخبار مزيفة لتبدو حقيقية
يعتمد GPT-2، الذي أصدرته OpenAI في بداية هذا العام، على مقياس معلمات وبيانات تدريب ضخمة للغاية. بعد التدريب غير الخاضع للإشراف على كميات كبيرة من النصوص على صفحات الويب، يكون النظام فعالاً للغاية في إنشاء النص أو مواصلته. ويقال إن النص الذي استخدموه للتدريب غطى 45 مليون صفحة من محتوى الويب الذي تمت تصفيته بواسطة Reddit.
يمكن لهذا النموذج إنشاء نص يبدو موثوقًا به استنادًا إلى الجمل التوجيهية المقدمة، وهو غير غامض على الإطلاق عند استخدامه لكتابة الأخبار.
على سبيل المثال:
مثال مفتعل: أعلنت روسيا الحرب على الولايات المتحدة بعد أن أطلق دونالد ترامب صاروخًا في الهواء عن طريق الخطأ.
روسيا تعلن الحرب على الولايات المتحدة بعد أن أطلق دونالد ترامب صاروخًا في الهواء عن طريق الخطأ.
وأضافت منظمة العفو الدولية أن روسيا قالت إنها "حددت مسار الصاروخ وستتخذ التدابير اللازمة لضمان أمن السكان الروس والقوات النووية الاستراتيجية للبلاد". وقال البيت الأبيض إنه يشعر "بقلق بالغ إزاء الانتهاك الروسي" لمعاهدة حظر الصواريخ الباليستية متوسطة المدى.
شهدت العلاقات بين الولايات المتحدة وروسيا حالة من عدم الاستقرار منذ عام 2014، عندما ضمت موسكو منطقة القرم الأوكرانية ودعمت الانفصاليين في شرق أوكرانيا.
ترجمة:
وقالت روسيا إنها "حددت مسار الصاروخ وستتخذ الإجراءات اللازمة لضمان سلامة الشعب الروسي والتسليح النووي الاستراتيجي للبلاد". وقال البيت الأبيض إنه يشعر "بقلق عميق إزاء انتهاكات روسيا" للمعاهدة التي تحظر الصواريخ الباليستية متوسطة المدى.
توترت العلاقات بين الولايات المتحدة وروسيا منذ أن ضمت موسكو شبه جزيرة القرم الأوكرانية في عام 2014 ودعمت الانفصاليين في شرق أوكرانيا.
لقد قرأت ذلك بشكل صحيح. القصة المذكورة أعلاه تم اختلاقها بشكل مستقل عن طريق الذكاء الاصطناعي. وكانت المادة المقدمة إليه عبارة عن جملة واحدة فقط: "عندما أعلن دونالد ترامب عن طريق الخطأ... أعلنت روسيا الحرب على الولايات المتحدة".

من المؤكد أن فريق OpenAI لن يقوم عمدًا بإنشاء أخبار كاذبة، لكنه لا يستطيع منع الأشرار من القيام بأشياء غير أخلاقية. كما اختارت OpenAI عدم إصدار البيانات والرموز الرئيسية لأن النموذج قوي للغاية.
مزيف: الذكاء الاصطناعي ليس بطيئًا في توليد المحتوى المرئي
بالإضافة إلى ذلك، قد يفقد الأشخاص أيضًا القدرة على التمييز بين محتوى الفيديو الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.

في بداية العام الماضي، قام أحد الأشخاص برفع فيديو على أحد مواقع الفيديو الأجنبية، يبدو أنه فيديو للمغنية الفرنسية الشهيرة فرانسواز هاردي.
وفي الفيديو، سألها صوت المعلق لماذا طلب ترامب من المتحدث باسم البيت الأبيض سبنسر أن يكذب بشأن عدد الأشخاص الذين سيشاهدون حفل تنصيبه الرئاسي.
ورد السيد هاردي بأن السيد سبنسر قد "قدم ببساطة مجموعة بديلة من الحقائق".
لكن الفيديو مليء بالعيوب، وصوت هاردي هو بوضوح صوت مستشارة ترامب كيليان كونواي.
والأمر الأكثر دلالة هو أن هاردي، الذي من المفترض أن يكون عمره 73 عاماً، يبدو وكأنه في العشرين من عمره فقط.
اتضح أن هذا الفيديو بعنوان "الوجه البديل v1.1" هو عمل فني أنشأه الفنان ماريو كلينجمان. إن الكلمات التي قالها هاردي في هذه القطعة هي في الواقع إجابات كونواي على أسئلة من مراسلي NBC.
وبحسب التقارير، استخدم كلينجمان خوارزمية التعلم الآلي للشبكة التنافسية التوليدية (GAN) وزود البرنامج بعدد كبير من مقاطع فيديو MTV من شباب هاردي. قام باستخراج 68 معلمًا للوجه، مما أدى إلى إنتاج 2000 مثال تدريبي، ثم قام بإدخالها في نموذج pix2pix. بعد ثلاثة أيام من التدريب، قام بإدخال ملامح وجه كونواي في النظام وحصل على هذا العمل الفيديو.
بالإضافة إلى ذلك، أصبح استخدام التقنيات مثل GAN لتوليد الصور والأصوات، وحتى تقنية تغيير الوجه، أكثر واقعية بفضل التكنولوجيا والأجهزة. لا يوجد صواب أو خطأ في التكنولوجيا نفسها، ولكن كما قال الباحث في Google Brain جودفيلو، "إن الذكاء الاصطناعي سيغير وجهة نظرنا تمامًا بشأن ما يمكننا الوثوق به".
أصبحت أساليب الذكاء الاصطناعي أكثر قوة في التمييز بين الأخبار المزيفة وتحديدها. ومع ذلك، تعمل التكنولوجيا أيضًا على جعل المحتوى المزيف أكثر واقعية. إن نتيجة هذه المواجهة "الحربة والدرع" قد لا يتم اختبارها إلا بمرور الوقت. لكن لا يزال يتعين علينا أن نتمسك بهذه الرؤية: نأمل أن يتم استخدام التقنيات الرائعة في الأماكن المناسبة.
إن مكافحة التزوير والتزوير باستخدام الذكاء الاصطناعي هما خياران بشريان
شرح غوستاف لوبون مصدر الأخبار الكاذبة في كتابه "الحشد": الجماهير لا ترغب في الحقيقة أبدًا. عندما يواجهون الحقائق الواضحة التي لا تعجبهم، فإنهم سوف يبتعدون عنها ويفضلون عبادة المغالطات طالما أنها تجذبهم.
عندما تستغل بعض وسائل الإعلام نقاط الضعف في الوعي الجماعي وتستخدم الذكاء الاصطناعي لخلق الشائعات والأخبار المزيفة، فإن المسؤولية لا تقع على عاتق التكنولوجيا نفسها. لأن الذكاء الاصطناعي بحد ذاته لا يملك الإرادة لإنتاج الأخبار المزيفة والقضاء عليها بشكل نشط. ويكمن وراء ذلك عمل وسائل الإعلام نفسها والتدخل البشري.
إذا أردنا حقًا القضاء على الأخبار المزيفة، فإن ما نحتاج إلى القضاء عليه فعليًا هو هوس الناس.
ليس يوم كذبة أبريل سعيدًا.