HyperAIHyperAI

Command Palette

Search for a command to run...

PERT: تدريب BERT المسبق باستخدام نموذج اللغة المُبَادَل

Yiming Cui; Ziqing Yang; Ting Liu

الملخص

تم استخدام نماذج اللغة المدربة مسبقًا (PLMs) على نطاق واسع في مهام مختلفة لمعالجة اللغة الطبيعية (NLP)، بفضل تمثيلاتها النصية القوية التي تم تدريبها على مجموعات بيانات كبيرة. في هذا البحث، نقترح نموذجًا جديدًا مدربًا مسبقًا يُسمى PERT لمهمة فهم اللغة الطبيعية (NLU). يعتبر PERT نموذج ترميز ذاتي (مثل BERT) يتم تدريبه باستخدام نموذج اللغة المبادل (PerLM). صياغة PerLM المقترح بسيطة. نقوم بتبديل نسبة من النص الإدخالي، والهدف من التدريب هو التنبؤ بموقع القيمة الأصلية. بالإضافة إلى ذلك، قمنا أيضًا بتطبيق تقنيات إخفاء الكلمات الكاملة وإخفاء الجموع النحوية N-gram لتحسين أداء PERT. أجرينا تجارب شاملة على مقاييس فهم اللغة الطبيعية باللغتين الصينية والإنجليزية. تظهر نتائج التجارب أن PERT يمكن أن يحقق تحسينات على مجموعة متنوعة من الخطوط الأساسية المقارنة في بعض المهام، بينما لا يكون الأمر كذلك في مهام أخرى. هذه النتائج تشير إلى إمكانية تطوير مهام تدريب أولي أكثر تنوعًا بدلاً من متغيرات نموذج اللغة المخفية. تم إجراء عدة دراسات كمية لفهم PERT بشكل أفضل، مما قد يساعد في تصميم نماذج اللغة المدربة مسبقًا في المستقبل. يمكن الوصول إلى المصادر من خلال الرابط التالي: https://github.com/ymcui/PERT


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp