HyperAIHyperAI

Command Palette

Search for a command to run...

تحسين تحليل AMR باستخدام التدريب التسلسلي-التسلسلي

Dongqin Xu Junhui Li Muhua Zhu Min Zhang Guodong Zhou

الملخص

في الأدبيات، يُعدّ حجم مجموعة البيانات التي تم تجميعها يدويًا وتعتبر حاسمة لبناء نموذج لتحليل تمثيل المعنى المجرد (AMR) بجودة عالية، من العوامل المحدودة بشكل كبير للبحث في مجال تمثيل المعنى المجرد. وللتخفيف من هذه القيود الناتجة عن حجم البيانات، أصبحت النماذج المُدرّبة مسبقًا تجذب انتباهًا متزايدًا في مجال تحليل AMR. ومع ذلك، فإن النماذج المُدرّبة مسبقًا السابقة، مثل BERT، تم تصميمها لأغراض عامة وقد لا تحقق الأداء المتوقع في المهمة الخاصة بتحليل AMR. في هذا البحث، نركّز على تحليل AMR من نوع تسلسل إلى تسلسل (seq2seq) ونُقدّم نهجًا مُدرّبًا مسبقًا من نوع seq2seq لبناء نماذج مُدرّبة مسبقًا بطريقة فردية ومتعددة المهام على ثلاث مهام ذات صلة، وهي: الترجمة الآلية، وتحليل التركيب النحوي، وتحليل AMR نفسه. علاوةً على ذلك، نُعدّل طريقة التخصيص الاعتيادية (fine-tuning) لتصبح طريقة تخصيص تعتمد على التعلم متعدد المهام، بحيث تُحسّن الأداء في تحليل AMR مع الحفاظ على الاستجابة النموذجية للنماذج المُدرّبة مسبقًا. أظهرت النتائج التجريبية الواسعة على مجموعتي بيانات معيار إنجليزية أن كل من النماذج المُدرّبة مسبقًا الفردية والمتعددة المهام تُحسّن الأداء بشكل كبير (مثلاً من 71.5 إلى 80.2 على AMR 2.0)، ما يحقق أفضل الأداء الحالي (state-of-the-art). ويُعدّ هذا الناتج واعدًا جدًا، نظرًا لأننا حققناه باستخدام نماذج من نوع seq2seq بدلًا من نماذج معقدة. نُقدّم كودنا ونماذجنا المتاحة عبر الرابط: https://github.com/xdqkid/S2S-AMR-Parser.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp