UniversalNER: تَنْقِيَةٌ مُوجَّهةٌ من نماذج اللغة الكبيرة للتمييز المفتوح للكيانات المُسَمَّاة

أظهرت النماذج اللغوية الكبيرة (LLMs) قدرة استيعابية ملحوظة، مثل فهم الكيانات والعلاقات المختلفة بشكل عشوائي. وقد أثبتت عملية التكييف بالتعليم فعاليتها في تحويل النماذج اللغوية الكبيرة إلى نماذج أكثر كفاءة من حيث التكلفة، مثل نموذج Alpaca وVicuna. ومع ذلك، تظل هذه النماذج الدراسية تتباعد بشكل كبير عن النماذج الأصلية من حيث الأداء في التطبيقات اللاحقة. في هذه الورقة، نستكشف عملية التكييف المُوجَّهَة باستخدام تكييف تعليمي مُركّز على المهمة، بهدف تدريب نماذج دراسية قادرة على التفوق في فئة واسعة من التطبيقات، مثل استخراج المعلومات المفتوحة. وباستخدام التعرف على الكيانات الاسمية (NER) كدراسة حالة، نوضح كيف يمكن تقليل نموذج ChatGPT إلى نماذج أصغر تُسمى UniversalNER، لتنفيذ استخراج الكيانات المفتوح. ولغرض التقييم، جمعنا أكبر معيار تقييم لـ NER حتى الآن، يشمل 43 مجموعة بيانات موزعة على 9 مجالات متنوعة، مثل الطب الحيوي، البرمجة، وسائل التواصل الاجتماعي، القانون، والمالية. وبلا استخدام أي تدريب مباشر، تحقق UniversalNER دقة ممتازة في التعرف على الكيانات، عبر عشرات الآلاف من أنواع الكيانات، وتفوق النماذج التعليمية العامة مثل Alpaca وVicuna بمتوسط أكثر من 30 نقطة مطلقة في مؤشر F1. وباستخدام جزء ضئيل من عدد المعاملات، لا تكتسب UniversalNER فقط القدرة التي يتمتع بها ChatGPT في التعرف على أنواع كيانات عشوائية، بل تتفوق على دقة NER الخاصة به بمتوسط 7 إلى 9 نقاط مطلقة في مؤشر F1. ومن الملاحظ بشكل استثنائي أن UniversalNER تتفوق بشكل كبير على أنظمة التكييف متعددة المهام المتطورة مثل InstructUIE، التي تعتمد على أمثلة مُعلَّمة لـ NER. كما أجرينا دراسات تحليلية شاملة لتقييم تأثير المكونات المختلفة في منهجيتنا للتكييف. ونُطلق وصفة التكييف، والبيانات، ونماذج UniversalNER، لتمكين الأبحاث المستقبلية في مجال التكييف المُوجَّه.