HyperAIHyperAI

Command Palette

Search for a command to run...

DIN-SQL: التعلم المُفصَّل في السياق للتحويل النصي-إلى-SQL مع التصحيح الذاتي

Mohammadreza Pourreza Davood Rafiei

الملخص

يوجد حاليًا فجوة كبيرة بين أداء النماذج المُعدّلة بدقة (fine-tuned models) وأساليب التوجيه (prompting approaches) باستخدام النماذج اللغوية الكبيرة (LLMs) في المهمة الصعبة لتحويل النص إلى SQL، كما يُقيَّم على مجموعات بيانات مثل Spider. ولتحسين أداء النماذج اللغوية الكبيرة في عملية الاستدلال، ندرس كيف يمكن لتفكيك المهمة إلى مهام فرعية أصغر أن يكون فعّالاً. وبشكل خاص، نُظهر أن تقسيم مشكلة التوليد إلى مهام فرعية، ثم تزويد النماذج اللغوية الكبيرة بحلول هذه المهام الفرعية، يمكن أن يكون نهجًا فعّالاً لتحسين أداء هذه النماذج بشكل كبير. تُظهر تجاربنا مع ثلاث نماذج لغوية كبرى أن هذا النهج يُحسّن باستمرار الأداء البسيط القائم على few-shot بنسبة تقارب 10%، ما يدفع دقة النماذج اللغوية الكبيرة نحو المستوى الأعلى (SOTA) أو يتجاوزه. وعلى مجموعة الاختبار المُحتفظ بها في Spider، كان أعلى مستوى سابق (SOTA) من حيث دقة التنفيذ 79.9، بينما أصبح المستوى الأعلى الجديد في وقت كتابة هذا البحث، باستخدام نهجنا، 85.3. ويتفوّق نهجنا القائم على التعلم السياقي (in-context learning) على العديد من النماذج المُعدّلة بشكل كبير بنسبة لا تقل عن 5%. علاوةً على ذلك، عند تقييمه على معيار BIRD، حقق نهجنا دقة تنفيذية بلغت 55.9%، ما يُشكّل مستوىً أعلى جديدًا (new SOTA) على مجموعة الاختبار المُحتفظ بها في BIRD.


بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp