d-SNE: التكيّف الحدودي باستخدام التضمين الجواري العشوائي

من ناحية، تُظهر الشبكات العصبية العميقة كفاءة عالية في تعلم مجموعات البيانات الكبيرة. ومن ناحية أخرى، فإنها غير فعّالة من حيث استخدام البيانات، حيث تتطلب عادةً كميات كبيرة من البيانات المُعلّمة لتدريب عدد هائل من المعاملات. ويصبح تدريب الشبكات الأكبر والأعمق أمرًا صعبًا دون استخدام تقنيات تنظيم مناسبة، خاصة عند استخدام مجموعات بيانات صغيرة. من جهة أخرى، فإن جمع بيانات مُعلّمة جيدًا يتطلب تكاليف عالية، ويستهلك وقتًا طويلاً، وغالبًا ما يكون غير عملي. إحدى الطرق الشائعة لتنظيم هذه الشبكات هي تدريب الشبكة باستخدام بيانات أكثر من مجموعة بيانات بديلة تمثلية. ولكن هذا قد يؤدي إلى آثار سلبية إذا كانت إحصائيات مجموعة البيانات التمثيلية مختلفة عن تلك المستهدفة. ويعود هذا التحدي إلى مشكلة انزياح المجال (Domain Shift). فعند استخدام مُستخرج ميزات من مجال تمثيلي، قد لا تُنتج بيانات من مجال مُحَوَّل سمات مخصصة. وقد تم اقتراح عدة تقنيات لتكيف المجال في الماضي لحل هذه المشكلة. في هذا البحث، نُقدّم تقنية جديدة لتكيف المجال تُسمى (d-SNE)، التي تستخدم بذكاء تقنيات التضمين الجارّي العشوائي (stochastic neighborhood embedding) ومسافة هاوسدورف المُعدّلة (novel modified-Hausdorff distance). وتتميز التقنية المقترحة بأنها قابلة للتعلم من النهاية إلى النهاية، مما يجعلها مناسبة بشكل مثالي لتدريب الشبكات العصبية. وتُظهر التجارب الواسعة أن d-SNE تتفوّق على أحدث التقنيات الحالية، وتعمل بشكل موثوق رغم التباين بين مجموعات البيانات المختلفة، حتى في بيئات التعلم الواحد-العينة (one-shot) والتعلم شبه المُعلّم (semi-supervised). كما تُظهر d-SNE قدرة على التعميم على عدة مجالات في آن واحد.