ELECTRA و GPT-4o: شركاء فعالون من حيث التكلفة لتحليل المشاعر

ال Transformers ثنائية الاتجاه تتفوق في تحليل المشاعر، والنماذج اللغوية الكبيرة (LLM) فعالة كمتعلمات من الصفر. هل يمكن أن يحققوا أداءً أفضل كفريق؟ يستكشف هذا البحث الأساليب التعاونية بين ELECTRA و GPT-4o لتصنيف المشاعر الثلاثي. قمنا بضبط أربع نماذج (ELECTRA Base/Large، GPT-4o/4o-mini) باستخدام مزيج من التعليقات من بنك بيانات مشاعر ستانفورد (SST) و DynaSent. قدمنا مدخلات من ELECTRA إلى GPT تتضمن: التسمية المتوقعة، الاحتمالات، والأمثلة المسترجعة. كان مشاركة توقعات ELECTRA Base FT مع GPT-4o-mini ذات تأثير إيجابي كبير على الأداء مقارنة بكل نموذج بمفرده (82.50 F1 الكلي مقابل 79.14 ELECTRA Base FT، 79.41 GPT-4o-mini) وأدت إلى أقل نسبة تكلفة/أداء (\$0.12/Nقطة F1). ومع ذلك، عندما تم ضبط نماذج GPT، فإن إدراج التوقعات خفض الأداء. كان GPT-4o FT-M هو الأفضل في الأداء (86.99)، وجاء GPT-4o-mini FT مباشرة بعده (86.70) وبتكلفة أقل بكثير (\$0.38 مقابل \$1.59/Nقطة F1). تظهر نتائجنا أن تعزيز المحفزات بالتوقعات من النماذج المعدلة هو طريقة فعالة لتحسين الأداء، وأن GPT-4o-mini المعدلة هي تقريبًا بنفس جودة GPT-4o FT ولكن بتكلفة أقل بنسبة 76%. كلتا الخيارتين تعتبران خيارات ميسورة للمشاريع ذات الموارد المحدودة.