HyperAIHyperAI

Command Palette

Search for a command to run...

البيئة المعرفية لـ BERT لفهم اللغة

Zhuosheng Zhang Yuwei Wu Hai Zhao Zuchao Li Shuailiang Zhang Xi Zhou Xiang Zhou

الملخص

أحدث الأبحاث المتعلقة بتمثيلات اللغة تقوم بدمج ميزات سياقية مُعدّلة بشكل دقيق في تدريب النماذج اللغوية، مما يُمكّن من تحقيق سلسلة من النجاحات خاصة في مهام فهم القراءة الآلية والاستنتاج اللغوي الطبيعي. ومع ذلك، فإن النماذج الحالية لتمثيل اللغة، بما في ذلك ELMo وGPT وBERT، تستفيد فقط من ميزات سياقية بسيطة مثل تمثيلات الأحرف أو الكلمات. ونادرًا ما تأخذ بعين الاعتبار دمج معلومات معجمية منظمة يمكنها توفير دلالات غنية لتمثيل اللغة. ولتعزيز فهم اللغة الطبيعية، نقترح دمج دلالات سياقية صريحة مستمدة من تصنيف الأدوار المعجمية المُدرّب مسبقًا، ونقدّم نموذجًا مُحسّنًا لتمثيل اللغة يُسمى Semantics-aware BERT (SemBERT)، الذي يمتلك القدرة على امتصاص دلالات سياقية صريحة عبر هيكل BERT الأساسي. يحافظ SemBERT على سهولة الاستخدام المميزة لنموذج BERT الأصلي من خلال طريقة تخصيص خفيفة دون الحاجة إلى تعديلات كبيرة مخصصة للمهام. مقارنةً بـ BERT، فإن SemBERT بسيط من حيث المفهوم ولكنه أكثر قوة. وقد حقق أداءً أفضل من المستوى الحالي أو تحسينًا كبيرًا في عشرة مهام تتعلق بفهم القراءة والاستنتاج اللغوي.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp