تم إخلاء أربعة مباني تابعة لشركة فيسبوك بشكل عاجل. هل كان انتقاماً إرهابياً أم خطأً؟

أصبحت وسائل التواصل الاجتماعي المنصة الدعائية الرئيسية للمنظمات الإرهابية، الأمر الذي تسبب أيضًا في صداع لوسائل التواصل الاجتماعي مثل فيسبوك وتويتر. ولمحاربة هؤلاء الإرهابيين والمتطرفين، سيستخدمون تقنية الذكاء الاصطناعي لحذف المنشورات ذات الصلة تلقائيًا وفي الوقت المناسب. ولكن بسبب هذا، فإنهم أيضًا قاموا بتزوير المظالم مع الإرهابيين...
وذكرت تقارير إعلامية أجنبية أنه في حوالي الساعة الحادية عشرة صباحا بتوقيت المحيط الهادئ يوم الأول من يوليو/تموز، تلقى مكتب فيسبوك في مينلو بارك بولاية كاليفورنيا "طردا مشبوها". تم اكتشاف غاز السارين (غاز أعصاب قاتل) أثناء الاختبارات الروتينية، مما أدى إلى وقوع هجمات إرهابية مشتبه بها، مما تسبب في حالة من الذعر بين الموظفين.
وفي الوقت الحالي، تم طلب المساعدة من مكتب التحقيقات الفيدرالي (FBI) في هذه القضية.
الاشتباه في هجوم بغاز السارين على مقر فيسبوك
تلقت شرطة نيويورك بلاغاً من مصدر مجهول عن وجود قنبلة في مقر شركة فيسبوك في مينلو بارك بولاية كاليفورنيا، وأبلغت السلطات المحلية حوالي الساعة 4:30 مساء، وفقاً لمتحدث باسم شرطة مينلو بارك بولاية كاليفورنيا.
وذكر التقرير أن الحزمة المشبوهة التي تلقاها فيسبوك كانت عبارة عن حقيبة بريد كبيرةأظهرت نتائج اختبار البريد الصادر عن شركة "إمباور" في مينلو بارك احتواء البريد الذي كان يحتوي على كميات كبيرة من غاز السارين بعد مروره عبر جهاز مسح البريد في منشأة مينلو بارك. ورغم أن هذا قد يكون إنذاراً كاذباً، إلا أنه لا يمكن استبعاد خطورته.

تم إخلاء أربعة مبانٍ تابعة لشركة فيسبوك في وادي السيليكون يوم الثلاثاء بسبب مخاوف من احتواء الطرود الموجودة في منشأة البريد على غاز الأعصاب السارين.
السارين هو عامل أعصاب شديد التقلب لأنه قادر على التبخر من السائل إلى الغاز. السارين هو غاز شفاف، عديم اللون، عديم الرائحة، وليس له طعم. إذا تعرض الأشخاص لغاز السارين من خلال الجلد أو العينين أو التنفس، فإن قطرة من غاز السارين بحجم وخزة دبوس يمكن أن تقتل شخصًا بالغًا بسرعة.
هذه ليست المرة الأولى التي يتلقى فيها الفيسبوك تهديدا إرهابيا!
في ظهر يوم 11 ديسمبر/كانون الأول 2018، بالتوقيت المحلي، أخلت الشرطة الأمريكية مبنى في مقر شركة فيسبوك بسبب تهديد بانفجار، لكن البحث الذي استمر عدة ساعات لم يعثر على أي علامات على وجود جهاز متفجر، وتم رفع الإنذار بعد ذلك.
إن الحوادث التي واجهتها شركة فيسبوك لها علاقة كبيرة بمكافحة الخطاب العنيف والمخالف للقواعد على الإنترنت. وباعتبارها مستهلكًا رئيسيًا لحركة المرور على وسائل التواصل الاجتماعي، بذلت شركة فيسبوك قدرًا هائلاً من الجهد، حتى أنها خاطرت بحياتها، في التعامل مع بيئة الشبكة والتعامل معها.
يجب إزالة أي محتوى على الفيسبوك يشيد أو يدعم أو يمثل الجماعات المتطرفة التي تنشر الكراهية والعنصرية في جميع أنحاء العالم. ولذلك، أصبح موقع فيسبوك، الذي يقف إلى جانب الحكومة، هدفاً للهجوم من قبل هذه المنظمات.
قصة قصيرة: تشكل الأفكار المتطرفة
في عام 2014 تقريبًا، كان تنظيم الدولة الإسلامية في صعود، وكانت وسائل التواصل الاجتماعي والإنترنت عبر الهاتف المحمول تتفجر.
ورغم أن الأفكار التي يدافعون عنها محافظة للغاية، فإن تنظيم داعش يستخدم مجموعة متنوعة من وسائل الاتصال، مثل تويتر وفيسبوك ويوتيوب، لنشر الأفكار المتطرفة وجذب المؤيدين من جميع أنحاء العالم للانضمام إليهم.

إنهم يعرفون أيضًا كيفية بناء شخصيتهم الخاصة. بالإضافة إلى نشر مقاطع فيديو للعقاب الوحشي، فإنهم يحاولون أيضًا إرضاء مستخدمي الإنترنت الشباب.
حتى خلقت قطط الدولة الإسلاميةحسابات تنشر صور وفيديوهات للقطط في حياتها، حتى تم إغلاق هذه الحسابات واحدة تلو الأخرى بواسطة تويتر وفيسبوك.

في الربع الأول من عام 2018، حذف فيسبوك ما مجموعه 28.8837 مليون منشور وأغلق وحذف حوالي 583 مليون حساب مزيف، معظمها معلومات وحسابات تتعلق بالإرهاب وخطاب الكراهية.
قوة العمالقة: محو آثار التنافر بهدوء
قالت شركة فيسبوك إنها تعتمد بشكل متزايد على التدخل البشري في عملية حظر وحذف المنشورات. 99.5 % يتم العثور على المنشورات المتعلقة بالإرهاب بواسطة الفيسبوك من خلال تقنية الذكاء الاصطناعي.
ومن هذه التقنياتالتعرف على الصور ومطابقتهابمجرد الاشتباه في أن صورة نشرها أحد المستخدمين مثيرة للريبة، سيقوم فيسبوك بمطابقتها تلقائيًا من خلال خوارزمية لمعرفة ما إذا كانت الصورة مرتبطة بمقاطع فيديو دعائية لتنظيم داعش، أو ما إذا كان من الممكن ربطها بصور أو مقاطع فيديو متطرفة محذوفة، ثم اتخاذ إجراءات الحظر.
قام الفريق الفني لفيسبوك بالتدوين ذات مرة"روزيتا: فهم النص في الصور ومقاطع الفيديو باستخدام التعلم الآلي"يصف كيفية عمل أداة التعرف على الصور Rosetta.

تستخدم Rosetta تقنية R-CNN السريعة لاكتشاف الأحرف، ثم تستخدم نموذج ResNet-18 الملتف بالكامل مع فقدان CTC (التصنيف الزمني الترابطي) لإجراء التعرف على النص، وتستخدم LSTM لتعزيز الدقة.

بالإضافة إلى ذلك، يقوم الفيسبوك أيضًا بإجراءبحث تحليل النصوص- تحليل اللغة التي قد يستخدمها الإرهابيون على الموقع الإلكتروني، واتخاذ التدابير المضادة المناسبة فورًا بمجرد أن يتضمن المحتوى المنشور الإرهاب.
بالإضافة إلى أدوات المراجعة القوية التي تعتمد على الذكاء الاصطناعي بشكل متزايد، يمتلك فيسبوك أيضًا فريقًا قويًا للمراجعة اليدوية. وينقسم فريق الأمن لديهم إلى فريقين: عمليات المجتمع وسلامته. يعتبر فريق سلامة المجتمع مسؤولاً بشكل أساسي عن بناء أدوات آلية لآلية الإبلاغ والاستجابة.
في الوقت الحالي، وصل فريق المراجعة اليدوية هذا إلى أكثر من 20 ألف شخص. وبناء على عدد مستخدمي فيسبوك النشطين الحاليين والبالغ عددهم 2 مليار، يتعين على كل مسؤول أمني أن يغطي 100 ألف مستخدم.
مع القوة العظيمة تأتي مسؤولية عظيمة
يتم إنشاء جميع أنواع المعلومات التي نتعامل معها بعد فحصها من خلال طبقات من الخوارزميات. تعمل منصات مثل فيسبوك وتويتر وويبو ودويين على حظر وإزالة كمية كبيرة من محتوى الأخبار السلبية التي تتعلق بالإرهاب وردود الفعل والمواد الإباحية وما إلى ذلك كل يوم، مما يؤثر حتما على مصالح بعض المنظمات.
علاوة على ذلك، في هذا العالم، تتدخل قوى من حكومات ومنظمات وجنسيات وثقافات مختلفة في عرض المعلومات.
في السابق، هاجم تنظيم داعش مجلة شارلي إيبدو في العاصمة الفرنسية باريس، والآن تعرض موقع فيسبوك لحوادث متكررة. سواء كان الأمر يتعلق بالتكنولوجيا أو المنصة، فإنهم غالباً ما يعززون موقفهم المحايد، لكنهم لا يستطيعون أن ينأوا بأنفسهم عنه تماماً. في عالم اليوم، الطريقة الوحيدة للأشخاص الطيبين لمواصلة القتال ضد القوى الإرهابية هي حماية أنفسهم.
في عالم مارفل، أكثر من بطل خارق قال هذا:
مع القوة العظيمة تأتي مسؤولية عظيمة.
مع القوة العظيمة تأتي مسؤولية عظيمة
--زيادة--