HyperAIHyperAI
منذ 11 أيام

تعلم استراتيجيات الاستدلال في الإثبات القابل للتفاضل من النهاية إلى النهاية

Pasquale Minervini, Sebastian Riedel, Pontus Stenetorp, Edward Grefenstette, Tim Rocktäschel
تعلم استراتيجيات الاستدلال في الإثبات القابل للتفاضل من النهاية إلى النهاية
الملخص

لقد حققت جهود جعل نماذج التعلم العميق قابلة للتفسير وفعالة من حيث البيانات وقوية من حيث الموثوقية بعض النجاح من خلال دمجها مع الأنظمة القائمة على القواعد، مثل ما يُعرف بمنصات الاستدلال العصبي-الرمزية (NTPs). يمكن لهذه النماذج العصبية-الرمزية استخلاص قواعد قابلة للتفسير وتعلم تمثيلات من البيانات عبر التحسين العكسي (back-propagation)، مع توفير تفسيرات منطقية لتنبؤاتها. ومع ذلك، تُعاني هذه النماذج من تعقيد حسابي كبير، حيث يتعين عليها النظر في جميع المسارات الممكنة لإثبات الهدف، ما يجعلها غير مناسبة للتطبيقات على نطاق واسع. نقدم في هذا العمل منصات الاستدلال الشرطي (CTPs)، وهي توسعة لمنصات NTPs، تتعلم استراتيجية اختيار القواعد المثلى من خلال التحسين القائم على التدرج. ونُظهر أن CTPs قابلة للتوسع وتحقق نتائج من الطراز الرائد على مجموعة بيانات CLUTRR، التي تختبر القدرة على التعميم النظامي للنماذج العصبية من خلال تعلّم الاستدلال على رسم بياني أصغر ثم تقييم الأداء على رسم بياني أكبر. وأخيرًا، تُظهر CTPs أداءً أفضل في مهام التنبؤ بالروابط مقارنةً بغيرها من النماذج العصبية-الرمزية على المعايير القياسية، مع الحفاظ على قابليتها للتفسير. وجميع كود المصدر والبيانات متاحة عبر الإنترنت على الرابط: https://github.com/uclnlp/ctp.

تعلم استراتيجيات الاستدلال في الإثبات القابل للتفاضل من النهاية إلى النهاية | أحدث الأوراق البحثية | HyperAI