HyperAIHyperAI
منذ 7 أيام

SSE-PT: التوصية التسلسلية عبر المحول المخصص

{James Sharpnack, Cho-Jui Hsieh, Shuqing Li, Liwei Wu}
SSE-PT: التوصية التسلسلية عبر المحول المخصص
الملخص

المعلومات الزمنية حاسمة في مشاكل التوصية لأن تفضيلات المستخدمين طبيعياً ديناميكية في العالم الحقيقي. لقد مكّنت التطورات الحديثة في التعلم العميق، وخاصة الاكتشافات المتعلقة بآليات الانتباه المختلفة والهياكل المعمارية الجديدة إلى جانب استخدام نماذج RNN وCNN الواسع النطاق في معالجة اللغة الطبيعية، من استغلال أفضل للترتيب الزمني للعناصر التي تفاعل معها كل مستخدم. وبشكل خاص، نجح نموذج SASRec، المُلهم بنموذج Transformer الشهير في معالجة اللغة الطبيعية، في تحقيق نتائج متقدمة على مستوى الحد الأقصى. ومع ذلك، فإن نموذج SASRec، مثل نموذج Transformer الأصلي، يُعد نموذجاً غير مخصص شخصياً ولا يتضمن تمثيلات مخصصة للمستخدمين. ولتجاوز هذه القيد، نقترح نموذجاً جديداً يُسمى "Transformer المخصص" (SSE-PT)، والذي يتفوق على SASRec بنسبة تقارب 5٪ من حيث مقياس NDCG@10 على خمسة مجموعات بيانات واقعية. علاوة على ذلك، وبعد تحليل سجلات تفاعل بعض المستخدمين العشوائيين، لاحظنا أن نموذجنا لا يوفر تفسيرات أكثر وضوحاً فحسب، بل يُظهر قدرة على التركيز على الأنماط الزمنية الحديثة الخاصة بكل مستخدم. وبالإضافة إلى ذلك، يمكن لنموذج SSE-PT مع تعديل بسيط، الذي نسميه SSE-PT++، التعامل مع التسلسلات الطويلة جداً، ويتفوق على SASRec في نتائج الترتيب مع سرعة تدريب مماثلة، مما يحقق توازناً مثالياً بين متطلبات الأداء وسرعة التنفيذ. إن تطبيقنا الجديد لتقنية الت régularization المعروفة باسم "التمثيلات المشتركة العشوائية" (SSE) يُعد عاملاً محورياً في نجاح التخصيص الشخصي. تم إتاحة الكود والبيانات مفتوحة المصدر عبر الرابط: https://github.com/SSE-PT/SSE-PT.

SSE-PT: التوصية التسلسلية عبر المحول المخصص | أحدث الأوراق البحثية | HyperAI