HyperAIHyperAI

Command Palette

Search for a command to run...

إدماج BERT في الترجمة الآلية العصبية

Jinhua Zhu Yingce Xia Lijun Wu Di He Tao Qin Wengang Zhou Houqiang Li Tie-Yan Liu

الملخص

أظهر النموذج المُقترح حديثًا BERT قوة كبيرة في مجموعة متنوعة من مهام فهم اللغة الطبيعية، مثل تصنيف النصوص وفهم القراءة، إلخ. ومع ذلك، لا يزال هناك نقص في الاستكشاف الفعّال لتطبيق BERT على الترجمة الآلية العصبية (NMT). في حين يُستخدم BERT بشكل شائع في التخصيص (fine-tuning) بدلًا من كونه تمثيلًا سياقيًا (contextual embedding) للمهام اللاحقة لفهم اللغة، فإن استكشافنا الأولي لاستخدام BERT كتمثيل سياقي في الترجمة الآلية أظهر أداءً أفضل مقارنةً باستخدامه في التخصيص. وهذا يحفّزنا على التفكير في كيفية استغلال BERT بشكل أفضل في NMT ضمن هذا المسار. نقترح خوارزمية جديدة تُسمى نموذج BERT-المدمج (BERT-fused model)، حيث نستخدم أولًا BERT لاستخراج التمثيلات من التسلسل المدخل، ثم نُدمج هذه التمثيلات مع كل طبقة من طبقات المُشفّر (encoder) والموّسع (decoder) في نموذج الترجمة الآلية العصبية من خلال آليات الانتباه (attention mechanisms). أجرينا تجارب على ترجمة مراقبة (شاملة للجملة والمستندات)، وترجمة شبه مراقبة، وترجمة غير مراقبة، وحققنا نتائج من الطراز الرائد (state-of-the-art) على سبعة مجموعات بيانات معيارية. يمكن الاطلاع على الكود الخاص بنا عبر الرابط: \url{https://github.com/bert-nmt/bert-nmt}.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp