HyperAIHyperAI
منذ 2 أشهر

ترانسفورمر ليفنشتاين

Jiatao Gu; Changhan Wang; Jake Zhao
ترانسفورمر ليفنشتاين
الملخص

النماذج الحديثة لتوليد التسلسلات العصبية مصممة إما لتوليد الرموز خطوة بخطوة من الصفر أو (بشكل تكراري) تعديل سلسلة رموز محصورة بطول ثابت. في هذا البحث، نطور متحول ليفنشتاين (Levenshtein Transformer)، وهو نموذج جزئي ذاتي التنظيم جديد يهدف إلى تحقيق توليد تسلسلات أكثر مرونة وقابلية للتطبيق. على عكس النهج السابق، فإن العمليات الأساسية لنموذجنا هي الإدراج والحذف. الجمع بين هذين العمليتين يسهل ليس فقط التوليد بل أيضًا تحسين السلسلة، مما يسمح بالتغييرات الديناميكية في الطول. كما نقترح مجموعة من تقنيات التدريب الجديدة المخصصة لهما، مستغلين بشكل فعال أحدهما كإشارة تعلم للآخر بفضل طبيعتهما المكملة. حققت التجارب التي تم تطبيقها باستخدام النموذج المقترح أداءً مparable ولكن بكفاءة أعلى بكثير في كل من مهام التوليد (مثل الترجمة الآلية، تلخيص النصوص) ومهام التحسين (مثل التعديل اللاحق الآلي). نؤكد أيضًا مرونة نموذجنا من خلال إظهار أن متغير ليفنشتاين مدرب بواسطة الترجمة الآلية يمكن استخدامه بسهولة للتعديل اللاحق الآلي.

ترانسفورمر ليفنشتاين | أحدث الأوراق البحثية | HyperAI