الشبكات العصبية العميقة لاكتشاف الروبوتات

مشكلة الكشف عن الروبوتات، وهي الحسابات الآلية في وسائل التواصل الاجتماعي التي تُدار بواسطة البرمجيات ولكنها تتظاهر بأنها مستخدمون بشر، لها آثار مهمة. على سبيل المثال، تم استخدام الروبوتات لتأليب الانتخابات السياسية من خلال تشويه الخطاب عبر الإنترنت، ولتشويه سوق الأسهم، أو لنشر نظريات المؤامرة المناهضة للتطعيم التي أدت إلى أوبئة صحية. معظم التقنيات المقترحة حتى الآن تكتشف الروبوتات على مستوى الحساب، وذلك من خلال معالجة كميات كبيرة من المشاركات في وسائل التواصل الاجتماعي واستخدام معلومات من بنية الشبكة، والديناميكيات الزمنية، وتحليل المشاعر وغيرها.في هذا البحث، نقترح شبكة عصبية عميقة تعتمد على هندسة الذاكرة طويلة المدى قصيرة المدى السياقية (LSTM) والتي تستغل كلًا من المحتوى والميتاداتا لاكتشاف الروبوتات على مستوى التغريد: يتم استخراج الخصائص السياقية من بيانات المستخدم الميتاداتا وتزويد الشبكات العصبية LSTM العميقة بها كمدخل مساعد لمعالجة نص التغريدة.مساهمة أخرى نقدمها هي تقنية مقترحة تعتمد على زيادة النسبة الصناعية للأقلية لتوليد مجموعة بيانات كبيرة مشمولة بالتصنيف تناسب تدريب الشبكات العميقة من كمية صغيرة جدًا من البيانات المشمولة بالتصنيف (حوالي 3,000 مثال لروبوتات تويتر المعقدة). نثبت أن هندستنا يمكن أن تحقق دقة تصنيف عالية (AUC > 96%) في الفصل بين الروبوتات والبشر من خلال تغريدة واحدة فقط.نطبق نفس الهندسة لاكتشاف الروبوتات على مستوى الحساب، مما يحقق دقة تصنيف تقريبًا مثالية (AUC > 99%). نظامنا يتفوق على أفضل التقنيات السابقة بينما يستفيد من مجموعة صغيرة ومفسرة من الخصائص ويحتاج إلى كمية صغيرة جدًا من البيانات التدريبية.