HyperAIHyperAI

Command Palette

Search for a command to run...

تقييم المكافآت لنموذج توليد الأسئلة

Tom Hosking Sebastian Riedel

الملخص

الطرق الحديثة لتكوين الأسئلة استخدمت تعديلات على بنية Seq2Seq مستوحاة من التقدم في ترجمة الآلة. يتم تدريب النماذج باستخدام الإجبار المعلم بهدف تحسين التنبؤ خطوة واحدة إلى الأمام فقط. ومع ذلك، عند وقت الاختبار، يُطلب من النموذج إنشاء سلسلة كاملة، مما يؤدي إلى انتشار الأخطاء عبر عملية التكوين (التحيز الكشفي). اقترح العديد من الباحثين مواجهة هذا التحيز عن طريق تحسين مكافأة أقل ربطًا بالبيانات التدريبية، باستخدام التعلم التعزيزي. نحن نحسن مباشرة للمعايير الجودة، بما في ذلك طريقة جديدة تستخدم مميزًا تم تعلمه مباشرة من البيانات التدريبية. نؤكد أن طرق التدرج الحاسمة للسياسة يمكن استخدامها لفصل التدريب عن الحقيقة الأرضية، مما يؤدي إلى زيادة في المعايير المستخدمة كمكافآت. نقوم بتقييم بشري ونظهر أن هذه المعايير التي كانت تعتبر سابقًا بمثابة مؤشرات جيدة لجودة السؤال، ليست متناسقة بشكل سيء مع الحكم البشري وأن النموذج ببساطة يتعلم استغلال نقاط ضعف مصدر المكافأة.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
تقييم المكافآت لنموذج توليد الأسئلة | مستندات | HyperAI