استنتاج قابل التفاضل على قواعد المعرفة الكبيرة واللغة الطبيعية

استنتاج المعرفة المعبّرة بلغة طبيعية وقواعد المعرفة (KBs) يُعدّ تحديًا رئيسيًا في الذكاء الاصطناعي، مع تطبيقاته في قراءة الآلات والمحادثات والإجابة على الأسئلة. تُعاني الهياكل العصبية العامة التي تتعلم تمثيلات وتحويلات النص بشكل مشترك من كفاءة منخفضة في استخدام البيانات، كما يصعب تحليل عملية الاستدلال فيها. وتُعالج هذه المشكلات من خلال أنظمة الاستدلال القابلة للتمييز من الطرفين، مثل مثبتات النظرية العصبية (NTPs)، رغم أن هذه الأنظمة يمكن استخدامها فقط مع قواعد معرفة رمزية صغيرة الحجم. في هذه الورقة، نقترح أولًا نسخة مُطورة من NTPs تُسمى NTPs المُتَعَمِّدة (GNTPs)، والتي تُعالج قيود التعقيد والقابلية للتوسع في NTPs، مما يجعلها قابلة للتطبيق على مجموعات بيانات واقعية. ويتم تحقيق هذا الناتج من خلال بناء رسم بياني للحساب ديناميكيًا، وإدراج مسارات البرهان الأكثر واعدة فقط أثناء الاستدلال، مما يؤدي إلى نماذج أكثر كفاءة بمقدار عدة رتب من الحجم. ثم، نقترح منهجية جديدة لاستنتاج مشترك بين قواعد المعرفة والمرجعيات النصية، من خلال دمج الحقائق المنطقية والجمل النصية في فضاء تمثيلي مشترك. ونُظهر أن GNTPs تُحقق أداءً مماثلًا لـ NTPs بتكاليف أقل بكثير، مع تحقيق نتائج تنافسية في توقع الروابط على مجموعات بيانات كبيرة، وتقديم تفسيرات للتنبؤات، واستخلاص نماذج قابلة للتفسير. يُتاح كود المصدر، ومجموعات البيانات، والمواد الإضافية عبر الإنترنت على الرابط: https://github.com/uclnlp/gntp.