HyperAIHyperAI
منذ 17 أيام

هل يمكن لـ ChatGPT أن تحل محل نماذج KBQA التقليدية؟ تحليل متعمق لأداء إجابة الأسئلة في عائلة نماذج LLM GPT

Yiming Tan, Dehai Min, Yu Li, Wenbo Li, Nan Hu, Yongrui Chen, Guilin Qi
هل يمكن لـ ChatGPT أن تحل محل نماذج KBQA التقليدية؟ تحليل متعمق لأداء إجابة الأسئلة في عائلة نماذج LLM GPT
الملخص

يُعدّ ChatGPT نموذجًا لغويًا كبيرًا قويًا (LLM) يغطي مصادر معرفية مثل ويكيبيديا، ويدعم الإجابة على الأسئلة بلغة طبيعية باستخدام معرفته الخاصة. ولهذا السبب، تزداد الاهتمامات بدراسة إمكانية استبدال ChatGPT للنماذج التقليدية القائمة على المعرفة في الإجابة على الأسئلة (KBQA). وعلى الرغم من وجود بعض الدراسات التي تحلل أداء ChatGPT في الإجابة على الأسئلة، إلا أن هناك نقصًا حتى الآن في إجراء اختبارات شاملة وواسعة النطاق على أنواع متعددة من الأسئلة المعقدة لتحليل القيود التي يواجهها النموذج. في هذا البحث، نقدّم إطارًا يتبع مواصفات الاختبار الأدّي (black-box testing) المُقترح من قبل Ribeiro وآخرين في دراسة CheckList. ونقيّم ChatGPT وعائلته من النماذج اللغوية الكبيرة (LLMs) على ثمانية مجموعات بيانات حقيقية قائمة على المعرفة لحل الأسئلة المعقدة، وتشمل ست مجموعات بيانات باللغة الإنجليزية ومجموعتان متعدّدتان اللغات. ويتراوح عدد حالات الاختبار الإجمالي نحو 190,000 حالة. وبالإضافة إلى عائلة نماذج GPT، نقوم أيضًا بتقييم النموذج المعروف FLAN-T5 لتحديد التشابهات بين عائلة GPT والنماذج اللغوية الكبيرة الأخرى. تتوفر مجموعة البيانات والكود على الرابط التالي: https://github.com/tan92hl/Complex-Question-Answering-Evaluation-of-GPT-family.git

هل يمكن لـ ChatGPT أن تحل محل نماذج KBQA التقليدية؟ تحليل متعمق لأداء إجابة الأسئلة في عائلة نماذج LLM GPT | أحدث الأوراق البحثية | HyperAI