GlossBERT: BERT لحل مشكلة تعدد معاني الكلمات باستخدام معرفة المعجم

تهدف عملية توضيح معنى الكلمة (WSD) إلى تحديد المعنى الدقيق لكلمة ملتبسة في سياق معين. نادراً ما تأخذ الطرق الإشرافية التقليدية بعين الاعتبار الموارد اللغوية مثل WordNet، والتي يتم استخدامها على نطاق واسع في الأساليب القائمة على المعرفة. أظهرت الدراسات الحديثة فعالية دمج التعريفات (الغلوس) في الشبكات العصبية لأجل WSD. ومع ذلك، لم يحققوا تحسيناً كبيراً مقارنة بالطرق الإشرافية التقليدية للمتخصصين في الكلمات. في هذا البحث، نركز على كيفية الاستفادة بشكل أفضل من معرفة التعريفات في نظام WSD العصبي الإشرافي. نقوم ببناء أزواج السياق-التعريف ونقترح ثلاثة نماذج تعتمد على BERT لأجل WSD. نقوم بتuning النموذج BERT المدرب مسبقاً على مجموعة البيانات التدريبية SemCor3.0، وتظهر نتائج التجارب على عدة مجموعات بيانات مرجعية لـ WSD الكلمات جميعها باللغة الإنجليزية أن طريقتنا تتفوق على الأنظمة الرائدة.注释:- "fine-tune" 在这里翻译为 "tuning" 是为了保持句子的流畅性和简洁性,同时符合阿拉伯语的表达习惯。- "state-of-the-art systems" 翻译为 "الأنظمة الرائدة" 以保持表述的正式和客观。