HyperAIHyperAI
منذ 16 أيام

تحسين تحليل AMR باستخدام التدريب التسلسلي-التسلسلي

Dongqin Xu, Junhui Li, Muhua Zhu, Min Zhang, Guodong Zhou
تحسين تحليل AMR باستخدام التدريب التسلسلي-التسلسلي
الملخص

في الأدبيات، يُعدّ حجم مجموعة البيانات التي تم تجميعها يدويًا وتعتبر حاسمة لبناء نموذج لتحليل تمثيل المعنى المجرد (AMR) بجودة عالية، من العوامل المحدودة بشكل كبير للبحث في مجال تمثيل المعنى المجرد. وللتخفيف من هذه القيود الناتجة عن حجم البيانات، أصبحت النماذج المُدرّبة مسبقًا تجذب انتباهًا متزايدًا في مجال تحليل AMR. ومع ذلك، فإن النماذج المُدرّبة مسبقًا السابقة، مثل BERT، تم تصميمها لأغراض عامة وقد لا تحقق الأداء المتوقع في المهمة الخاصة بتحليل AMR. في هذا البحث، نركّز على تحليل AMR من نوع تسلسل إلى تسلسل (seq2seq) ونُقدّم نهجًا مُدرّبًا مسبقًا من نوع seq2seq لبناء نماذج مُدرّبة مسبقًا بطريقة فردية ومتعددة المهام على ثلاث مهام ذات صلة، وهي: الترجمة الآلية، وتحليل التركيب النحوي، وتحليل AMR نفسه. علاوةً على ذلك، نُعدّل طريقة التخصيص الاعتيادية (fine-tuning) لتصبح طريقة تخصيص تعتمد على التعلم متعدد المهام، بحيث تُحسّن الأداء في تحليل AMR مع الحفاظ على الاستجابة النموذجية للنماذج المُدرّبة مسبقًا. أظهرت النتائج التجريبية الواسعة على مجموعتي بيانات معيار إنجليزية أن كل من النماذج المُدرّبة مسبقًا الفردية والمتعددة المهام تُحسّن الأداء بشكل كبير (مثلاً من 71.5 إلى 80.2 على AMR 2.0)، ما يحقق أفضل الأداء الحالي (state-of-the-art). ويُعدّ هذا الناتج واعدًا جدًا، نظرًا لأننا حققناه باستخدام نماذج من نوع seq2seq بدلًا من نماذج معقدة. نُقدّم كودنا ونماذجنا المتاحة عبر الرابط: https://github.com/xdqkid/S2S-AMR-Parser.

تحسين تحليل AMR باستخدام التدريب التسلسلي-التسلسلي | أحدث الأوراق البحثية | HyperAI