تعلم استراتيجيات الاستدلال في الإثبات القابل للتفاضل من النهاية إلى النهاية

لقد حققت جهود جعل نماذج التعلم العميق قابلة للتفسير وفعالة من حيث البيانات وقوية من حيث الموثوقية بعض النجاح من خلال دمجها مع الأنظمة القائمة على القواعد، مثل ما يُعرف بمنصات الاستدلال العصبي-الرمزية (NTPs). يمكن لهذه النماذج العصبية-الرمزية استخلاص قواعد قابلة للتفسير وتعلم تمثيلات من البيانات عبر التحسين العكسي (back-propagation)، مع توفير تفسيرات منطقية لتنبؤاتها. ومع ذلك، تُعاني هذه النماذج من تعقيد حسابي كبير، حيث يتعين عليها النظر في جميع المسارات الممكنة لإثبات الهدف، ما يجعلها غير مناسبة للتطبيقات على نطاق واسع. نقدم في هذا العمل منصات الاستدلال الشرطي (CTPs)، وهي توسعة لمنصات NTPs، تتعلم استراتيجية اختيار القواعد المثلى من خلال التحسين القائم على التدرج. ونُظهر أن CTPs قابلة للتوسع وتحقق نتائج من الطراز الرائد على مجموعة بيانات CLUTRR، التي تختبر القدرة على التعميم النظامي للنماذج العصبية من خلال تعلّم الاستدلال على رسم بياني أصغر ثم تقييم الأداء على رسم بياني أكبر. وأخيرًا، تُظهر CTPs أداءً أفضل في مهام التنبؤ بالروابط مقارنةً بغيرها من النماذج العصبية-الرمزية على المعايير القياسية، مع الحفاظ على قابليتها للتفسير. وجميع كود المصدر والبيانات متاحة عبر الإنترنت على الرابط: https://github.com/uclnlp/ctp.