HyperAIHyperAI

Command Palette

Search for a command to run...

ليست جميع الطبقات متساوية في الأهمية: كل طبقة تُعد مهمة في BERT

Lucas Georges Gabriel Charpentier; David Samuel

الملخص

يقدم هذا البحث تعديلاً جديداً على هيكلية الترانسفورمر (transformer architecture)، مصمماً خصيصاً لتدريب النماذج اللغوية بكفاءة البيانات. تم تقييم هذا الجانب من خلال المشاركة في تحدي BabyLM، حيث فازت حلولنا في المسارين الصارم والصارم-الصغير. يسمح نهجنا لكل طبقة من طبقات الترانسفورمر باختيار مخرجات الطبقات السابقة التي يجب معالجتها. تؤكد النتائج التجريبية إمكانات هذا التعديل البسيط وتظهر أن ليس جميع الطبقات بنفس الدرجة من الأهمية.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp