HyperAIHyperAI

Command Palette

Search for a command to run...

ال Transformers المُدربة بشكل توليدي ومُهيكلة: نماذج لغوية نحوية غير مُشرف عليها على نطاق واسع

Xiang Hu‡∗ Pengyu Ji§∗ Qingyang Zhu§ Wei Wu‡† Kewei Tu§†

الملخص

نموذج اللغة النحوي (SLM) يولد جملة بنمطها النحوي بشكل تدريجي من اليسار إلى اليمين. نقدم نموذج GPST، وهو نموذج متحول مهيكل مُدرب مسبقًا بدون إشراف يمكنه التدريب من الصفر على النصوص الخام بمستوى عالٍ من التوازي. يتجاوز GPST حدود النماذج النحوية السابقة مثل الاعتماد على الأشجار الذهبية والتدريب التتابعي. يتكون من مكونين، أحدهما هو نموذج لغة نحوي تقليدي يتم إشرافه بواسطة خسارة النمذجة اللغوية الأحادية الاتجاه، والآخر هو نموذج تركيبي إضافي يقوم بإنشاء أشجار التحليل النحوي وحساب تمثيلات المكونات، ويتم إشرافه بواسطة خسارة النمذجة اللغوية ثنائية الاتجاه. نقترح استخدام تمثيل بديل لتمكين التدريب المتوازي المشترك للنماذجين بطريقة EM صارمة. قمنا بتدريب GPST مسبقًا على مجموعة بيانات OpenWebText، وهي تحتوي على 9 مليارات رمز، وأظهرنا تفوق GPST على GPT-2 في العديد من المهام التي تغطي فهم اللغة وإنتاجها. وفي الوقت نفسه، يتفوق GPST بشكل كبير على النماذج النحوية غير المشرف عليها الحالية في استقراء القواعد من اليسار إلى اليمين، مع تحقيق تسريع كبير في التدريب.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp
ال Transformers المُدربة بشكل توليدي ومُهيكلة: نماذج لغوية نحوية غير مُشرف عليها على نطاق واسع | مستندات | HyperAI