HyperAIHyperAI

Command Palette

Search for a command to run...

بريميرا: التدريب المسبق للجملة المُقنعة القائمة على الهرم لتلخيص المستندات المتعددة

Wen Xiao Iz Beltagy Giuseppe Carenini Arman Cohan

الملخص

نقدم نموذج PRIMERA، وهو نموذج مُدرَّب مسبقًا لتمثيل الوثائق المتعددة مع التركيز على تلخيص النصوص، ويقلل من الحاجة إلى هياكل مخصصة لكل مجموعة بيانات، وكذلك كميات كبيرة من البيانات المُعلَّمة التي تتطلب تدريبًا دقيقًا. يستخدم PRIMERA هدفًا مُدرَّبًا مسبقًا جديدًا اقترحناه، مصممًا لتعليم النموذج على ربط المعلومات وتجميعها عبر الوثائق المختلفة. كما يستخدم نماذج تحويلية فعالة (encoder-decoder) لتبسيط معالجة الوثائق المُترابطة. وقد أظهرت تجارب واسعة على 6 مجموعات بيانات لملخصات الوثائق المتعددة من 3 مجالات مختلفة، في بيئات الصفرية (zero-shot)، والقليلة (few-shot)، والمعتمدة على التدريب الكامل (full-supervised)، تفوق PRIMERA على النماذج الحالية الأفضل في المجال (state-of-the-art) المخصصة لكل مجموعة بيانات، وكذلك النماذج المُدرَّبة مسبقًا، في معظم هذه البيئات وبفارق كبير. يمكن العثور على الكود والنماذج المُدرَّبة مسبقًا في الرابط: \url{https://github.com/allenai/PRIMER}.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
بريميرا: التدريب المسبق للجملة المُقنعة القائمة على الهرم لتلخيص المستندات المتعددة | مستندات | HyperAI