HyperAIHyperAI
منذ 16 أيام

نماذج اللغة الكبيرة لتحليل المشاعر القائمة على الجوانب

Paul F. Simmering, Paavo Huoviala
نماذج اللغة الكبيرة لتحليل المشاعر القائمة على الجوانب
الملخص

توفر النماذج اللغوية الكبيرة (LLMs) قدرات غير مسبوقة في استكمال النصوص. وباعتبارها نماذج عامة، يمكنها أداء مجموعة واسعة من المهام، بما في ذلك المهام التي تُخصص لها نماذج متخصصة. قمنا بتقييم أداء نموذج GPT-4 وGPT-3.5 في بيئات بدون تدريب (zero-shot)، وبتدريب محدود (few-shot)، وتدريباً دقيقاً (fine-tuned) على مهمة تحليل المشاعر القائمة على الجوانب (ABSA). حقق نموذج GPT-3.5 المُدرّب بدقة (fine-tuned) أفضل أداء مُسجّل حتى الآن بقيمة F1 تبلغ 83.8 في مهمة استخراج مصطلحات الجوانب وتصنيف اتجاه المشاعر المتكاملة ضمن مهمة SemEval-2014 المهمة 4، متفوّقاً على InstructABSA [@scaria_instructabsa_2023] بنسبة 5.7%. ومع ذلك، فإن هذا الأداء العالي يُدفع ثمنه بزيادة تصل إلى 1000 مرة في عدد المعلمات، ما يؤدي إلى تكاليف أكبر أثناء الاستدلال (inference). ونناقش في هذا العمل التنازلات بين التكلفة والأداء التي تفرضها النماذج المختلفة، كما نحلل الأخطاء الشائعة التي ترتكبها هذه النماذج. وتشير نتائجنا أيضاً إلى أن استخدام أوامر مفصلة (detailed prompts) يُحسّن الأداء في البيئات بدون تدريب وبتدريب محدود، لكنه ليس ضرورياً للنماذج المُدرّبة بدقة. تمثل هذه النتائج دليلاً مهماً للممارسين الذين يواجهون خياراً بين هندسة الأوامر (prompt engineering) وتدريباً دقيقاً عند استخدام النماذج اللغوية الكبيرة في مهام تحليل المشاعر القائمة على الجوانب.

نماذج اللغة الكبيرة لتحليل المشاعر القائمة على الجوانب | أحدث الأوراق البحثية | HyperAI