تعلم القياس العلائقي الكامن عبر الانتباه القائم على الذاكرة للتصنيف التشاركي

يقترح هذا البحث معمارية عصبية جديدة للتصنيف التعاوني باستخدام التغذية الراجعة الضمنية. نموذجنا، LRML (Learning Latent Relational Metric Learning) هو منهج جديد لتعلم المقاييس في مجال التوصيات. بشكل أكثر تحديدًا، بدلاً من آليات الدفع والجذب البسيطة بين أزواج المستخدمين والعناصر، نقترح تعلم العلاقات المخفية التي تصف كل تفاعل بين المستخدم والعنصر. هذا يساعد في تخفيف المرونة الهندسية المحتملة لطرق تعلم المقاييس الحالية. هذا يمكّن ليس فقط من الأداء الأفضل ولكن أيضًا من قدرة أكبر على النمذجة، مما يسمح لنموذجنا بالتوسع إلى عدد أكبر من التفاعلات. لتحقيق ذلك، نستخدم وحدة ذاكرة معززة ونتعلم كيفية التركيز على هذه الكتل الذاكرة لبناء العلاقات المخفية. يتم التحكم في وحدة الاهتمام القائمة على الذاكرة بواسطة تفاعل المستخدم-العنصر، مما يجعل المتجه العلقي المتعلم خاصًا بكل زوج مستخدم-عنصر. وبالتالي، يمكن فهم هذا كتعلم ترجمة علائقية حصرية ومثلى لكل تفاعل بين المستخدم والعنصر. أثبتت المعمارية المقترحة أنها تتفوق على أفضل الأداء في العديد من مقاييس التوصيات. يتفوق LRML على نماذج تعلم المقاييس الأخرى بنسبة 6٪ إلى 7.5٪ فيما يتعلق بـ Hits@10 و nDCG@10 على مجموعات بيانات كبيرة مثل Netflix و MovieLens20M. بالإضافة إلى ذلك، أظهرت الدراسات النوعية أيضًا أدلة على أن النموذج المقترح قادر على استنتاج وتشفير المعلومات الصريحة حول المشاعر والزمن والخصائص رغم أنه تم تدريبه فقط على التغذية الراجعة الضمنية. وهكذا,则这证实了 LRML 在隐式数据集中揭示隐藏关系结构的能力。注:最后一句中“则这”在阿拉伯语中显得有些突兀,因此我将其调整为更自然的表达方式。以下是调整后的版本:وهكذا,则这证明了 LRML 揭示隐式数据集中隐藏关系结构的能力。或者完全翻译为阿拉伯语:وهكذا، فإن هذا يؤكد قدرة LRML على كشف البنية العلائقية المخفية داخل مجموعات البيانات الضمنية.