Relphormer: تحويلة رسمية للعلاقات لتمثيلات رؤوس المعرفة

أظهرت نماذج الترانسفورمر أداءً متميزًا في مجالات واسعة النطاق، بما في ذلك معالجة اللغة الطبيعية والرؤية الحاسوبية وتنقيب الرسوم البيانية. ومع ذلك، لم تُحقق الهياكل الأصلية لنموذج الترانسفورمر تحسينات واعدة في تمثيل المعرفة الرسومية (KG)، حيث لا يزال نموذج المسافة الترجمية هو السائد في هذا المجال. وتجدر الإشارة إلى أن الهياكل الأصلية لنموذج الترانسفورمر تواجه صعوبة في التقاط المعلومات الهيكلية والدلالية المتنوعة بطبيعتها في الرسوم البيانية للمعرفة. ولحل هذه المشكلة، نقترح نموذجًا جديدًا من نوع الترانسفورمر لتمثيل الرسوم البيانية للمعرفة يُدعى Relphormer. بشكل محدد، نُقدّم تقنية Triple2Seq التي يمكنها عينات ديناميكية لسلاسل الرسوم البيانية الجزئية المُحَوَّلة إلى السياق كمدخلات، بهدف تقليل مشكلة التباين. كما نقترح آلية انتباه ذاتية مُحسّنة بالبنية لتمثيل المعلومات المتعلقة بالعلاقات والحفاظ على المعلومات الدلالية داخل الكيانات والعلاقات. علاوة على ذلك، نستخدم نموذجًا مُخفيًا للمعرفة لتعلم تمثيلات عامة للرسوم البيانية للمعرفة، ويمكن تطبيقه على مهام متعددة تعتمد على الرسوم البيانية للمعرفة، بما في ذلك إكمال الرسوم البيانية، والإجابة على الأسئلة، والتوصية. أظهرت النتائج التجريبية على ستة مجموعات بيانات أن Relphormer يحقق أداءً أفضل مقارنةً بالأساليب الأساسية. يُمكن الوصول إلى الكود من خلال الرابط: https://github.com/zjunlp/Relphormer.