HyperAIHyperAI

Command Palette

Search for a command to run...

TRANS-BLSTM: تحويلة مع LSTM ثنائي الاتجاه لفهم اللغة

Zhiheng Huang Peng Xu Davis Liang Ajay Mishra Bing Xiang

الملخص

لقد حقق نموذج تمثيلات المُشَرِّح ثنائي الاتجاه من خلال المحولات (BERT) أداءً متقدمًا للغاية في مجموعة واسعة من مهام معالجة اللغة الطبيعية، بما في ذلك تصنيف الجملة والترجمة الآلية والإجابة على الأسئلة. ويُستمد معمارية نموذج BERT بشكل رئيسي من المحولات (Transformer). قبل عصر المحولات، كان نموذج الذاكرة القصيرة والطويلة ثنائي الاتجاه (BLSTM) هو المعمارية المُهيمنة في نمذجة الترجمة الآلية ونماذج الإجابة على الأسئلة. في هذه الورقة البحثية، نستكشف كيف يمكن دمج هاتين التقنيتين النمذجيتين لخلق معمارية نموذجية أكثر قوة. ونُقدّم معمارية جديدة تُسمّى "المُحول مع BLSTM" (TRANS-BLSTM)، والتي تضم طبقة BLSTM ضمن كل كتلة محول، مما يؤدي إلى إطار نمذجة مُشترَك بين المحولات وBLSTM. ونُظهر أن نماذج TRANS-BLSTM تُحقّق تحسينات مستمرة في الدقة مقارنةً بنماذج BERT الأساسية في تجارب GLUE وSQuAD 1.1. كما حقق نموذجنا TRANS-BLSTM نتيجة F1 قدرها 94.01% على مجموعة بيانات تطوير SQuAD 1.1، وهي نتيجة مُقارنةً بالنتائج الرائدة في المجال.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp