HyperAIHyperAI
منذ 2 أشهر

هندسة شبكة عصبية تجمع بين وحدة التكرار المُحكَمة (GRU) وآلة المتجهات الداعمة (SVM) لاكتشاف الانتهاكات في بيانات حركة الشبكة

Abien Fred Agarap
هندسة شبكة عصبية تجمع بين وحدة التكرار المُحكَمة (GRU) وآلة المتجهات الداعمة (SVM) لاكتشاف الانتهاكات في بيانات حركة الشبكة
الملخص

وحدة التكرار المشروطة (Gated Recurrent Unit - GRU) هي نسخة حديثة من وحدة الذاكرة طويلة المدى قصيرة الأجل (Long Short-Term Memory - LSTM)، وكلاهما نوع من الشبكات العصبية التكرارية (Recurrent Neural Network - RNN). وقد أثبتت الأدلة التجريبية أن كلا النموذجين فعّالان في مجموعة متنوعة من مهام تعلم الآلة مثل معالجة اللغة الطبيعية (Wen et al., 2015)، وتعرف الكلام (Chorowski et al., 2015)، وتصنيف النصوص (Yang et al., 2016). عادةً، كما هو الحال في معظم الشبكات العصبية، يستخدم كلا النموذجين المتقدمين من RNN الدالة Softmax كطبقة الإخراج النهائية للتنبؤ، واستخدام الدالة Entropy المتقاطعة لحساب الخسارة.في هذا البحث، نقترح تعديلاً على هذه القاعدة من خلال تقديم آلة المتجهات الداعمة الخطية (Support Vector Machine - SVM) كبديل للدالة Softmax في طبقة الإخراج النهائية لنموذج GRU. بالإضافة إلى ذلك، سيتم استبدال دالة Entropy المتقاطعة بدالة تعتمد على الهامش. رغم وجود دراسات مشابهة (Alalshekmubarak & Smith, 2013؛ Tang, 2013)، فإن هذا الاقتراح يهدف بشكل أساسي إلى التصنيف الثنائي لاكتشاف الاختراقات باستخدام بيانات حركة الشبكة لعام 2013 من أنظمة الـ Honeypot في جامعة كيوتو.أظهرت النتائج أن نموذج GRU-SVM يحقق أداءً أعلى نسبيًا مقارنة بنموذج GRU-Softmax التقليدي. فقد بلغت دقة التدريب لنموذجنا المقترح حوالي 81.54٪ ودقة الاختبار حوالي 84.15٪، بينما تمكّن النموذج الأخير من الوصول إلى دقة تدريب تبلغ حوالي 63.07٪ ودقة اختبار تبلغ حوالي 70.75٪. بالإضافة إلى ذلك، يشير مقارنة هاتين طبقتي الإخراج النهائيتين إلى أن آلة المتجهات الداعمة ستفوق الدالة Softmax في وقت التنبؤ - وهو إيحاء نظري تم تأكيده بواسطة أوقات التدريب والاختبار الفعلية في الدراسة.