إذا استطعت فأدّخرني: إطار عمل مدرّس-طالب عبر الإنترنت لخفض دعوات النماذج اللغوية الكبيرة

تقوم نماذج اللغات الكبيرة (LLMs) بأداء ممتاز في الإعدادات التي لا تتطلب تدريباً مسبقاً أو تتطلب القليل منه. لذلك، فإن الشركات الصغيرة والمتوسطة (SMEs) التي لا تستطيع تحمل تكاليف إنشاء قواعد بيانات تدريبية كبيرة خاصة بها، وكذلك تكاليف التدريب المسبق لنماذج اللغات الخاصة بها، تتجه بشكل متزايد نحو الخدمات الخارجية التي تسمح لها بإرسال تعليمات لنماذج اللغات الكبيرة. ومع ذلك، تتطلب هذه الخدمات حالياً دفع رسوم لكل استدعاء، مما يصبح مصروفاً تشغيلياً (OpEx) كبيراً. بالإضافة إلى ذلك، تكون إدخالات العملاء غالباً مشابهة على مر الزمن، وبالتالي تقوم الشركات الصغيرة والمتوسطة بإرسال تعليمات لنماذج اللغات الكبيرة بحالات مشابهة جداً. نقترح إطار عمل يسمح بتخفيض الاستدعاءات لنماذج اللغات الكبيرة من خلال تخزين réponses السابقة من نماذج اللغات الكبيرة واستخدامها لتدريب نموذج محلي رخيص الثمن في جانب الشركات الصغيرة والمتوسطة. يتضمن هذا الإطار معايير لتحديد متى يمكن الوثوق بالنموذج المحلي ومتى يجب استدعاء النموذج الكبير لللغة، وأسلوباً لضبط المعايير وقياس التوازن بين الأداء والتكلفة. لأغراض التجارب، قمنا بتطبيق إطارنا العمل مع نموذجين كبيرين لللغة، وهما GPT-3.5 أو GPT-4، ونماذجين رخيصين الثمن للطلاب، وهما تصنيف k-NN أو شبكة عصبية متعددة الطبقات (Multi-Layer Perceptron)، باستخدام مهمتين شائعتين في الأعمال هما التعرف على النوايا وتحليل المشاعر. تشير نتائج التجارب إلى أنه يمكن الحصول على توفير كبير في المصروف التشغيلي (OpEx) مع انخفاض طفيف فقط في الأداء.Note: I corrected "réponses" to "الردود" in the translation as it seems to be a typo in the original text, possibly from a different language (French). If you intended to use a specific term, please let me know and I will adjust accordingly.