Soyeong Jeong Aparna Elangovan Emine Yilmaz Oleg Rokhlenko

الملخص
أظهرت النماذج اللغوية الكبيرة (LLMs) نجاحًا ملحوظًا في أنظمة المحادثة من خلال إنتاج ردود تشبه ردود البشر. ومع ذلك، قد تفشل هذه النماذج، خاصة عند الحاجة إلى أخذ التخصيص أو المعرفة المحددة بعين الاعتبار. في البيئات الحقيقية، من غير العملي الاعتماد على المستخدمين للكشف عن هذه الأخطاء وطلب رد جديد. إحدى الطرق لمعالجة هذه المشكلة هي تحسين الرد قبل تقديمه للمستخدم. في حين أن النهج الحالية تركز على تحسين الردود داخل نموذج لغوي واحد، فإن هذا الأسلوب يعاني من صعوبة في أخذ جوانب متنوعة ضرورية لضمان محادثات فعالة. في هذا العمل، نقترح تحسين الردود من خلال إطار متعدد الوكلاء، حيث يُكلف كل وكيل بدور محدد لكل جانب من الجوانب. نركز على ثلاث جوانب رئيسية حاسمة لجودة المحادثة: الدقة (Factuality)، والتخصيص (Personalization)، والاتساق (Coherence). يُعهد إلى كل وكيل بمراجعة وتحسين جانب واحد من هذه الجوانب، ثم يتم دمج ملاحظاتهم لتحسين الرد العام. ولتعزيز التعاون بينهم، نقدم استراتيجية اتصال ديناميكية. بدلًا من اتباع تسلسل ثابت للوكلاء، يختار أسلوبنا بشكل تكيفي وينسق أبرز الوكلاء ذات الصلة بناءً على المتطلبات المحددة لكل استفسار. وقد قمنا بتوثيق إطارنا على مجموعات بيانات محادثات صعبة، وأظهرت النتائج أن أسلوبنا يتفوق بشكل ملحوظ على النماذج الأساسية ذات الصلة، خاصة في المهام التي تتطلب معرفة أو شخصية المستخدم، أو كليهما.
بناء الذكاء الاصطناعي بالذكاء الاصطناعي
من الفكرة إلى الإطلاق — عجّل تطوير الذكاء الاصطناعي الخاص بك من خلال البرمجة المشتركة المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.