النماذج اللغوية الكبيرة هي معالجة للمنطق من دون تدريب مسبق

النماذج اللغوية الكبيرة المدربة مسبقًا (LLMs) تُستخدم على نطاق واسع في العديد من المجالات الفرعية لمعالجة اللغة الطبيعية (NLP)، وهي معروفة عمومًا بأنها نماذج ممتازة للتعلم بقليل من الأمثلة مع أمثلة خاصة بالمهمة. بشكل ملحوظ، حققت تقنية التحفيز بالتفكير المتسلسل (CoT)، وهي تقنية حديثة تستخرج التفكير المعقد متعدد الخطوات من خلال أمثلة إجابات خطوة بخطوة، أفضل الأداء في الحسابيات والتفكير الرمزي، وهما مهمتان صعبتان تنتميان إلى نظام الدرجة الثانية ولا تتبعان القوانين التقليدية للتوسع في النماذج اللغوية الكبيرة (LLMs). بينما غالبًا ما يُنسب هذه النجاحات إلى قدرة النماذج اللغوية الكبيرة على التعلم بقليل من الأمثلة، نوضح أن هذه النماذج هي أيضًا نماذج جيدة للتفكير بدون أمثلة عن طريق إضافة "دعونا نفكر خطوة بخطوة" قبل كل إجابة.نتائج التجارب تظهر أن تقنيتنا Zero-shot-CoT، باستخدام نفس قالب التحفيز الفردي، تتفوق بشكل كبير على أداء النماذج اللغوية الكبيرة بدون أمثلة في مجموعة متنوعة من مهمات المعايير الإدراكية التي تشمل الحسابيات (MultiArith, GSM8K, AQUA-RAT, SVAMP)، والتفكير الرمزي (Last Letter, Coin Flip)، وغيرها من مهمات التفكير المنطقي (فهم التاريخ، تتبع الأشياء المشتتة)، دون الحاجة لأي أمثلة يدوية بقليل من الأمثلة. على سبيل المثال، زادت الدقة في MultiArith من 17.7٪ إلى 78.7٪ وفي GSM8K من 10.4٪ إلى 40.7٪ باستخدام نموذج InstructGPT الكبير (text-davinci-002)، وكذلك حققت تحسينات مشابهة باستخدام نموذج آخر جاهز ذو حجم كبير يحتوي على 540 مليار معلمة (PaLM).تنوّع هذا القالب الفردي عبر مهمات إدراكية متنوعة للغاية يشير إلى قدرات أساسية غير مستغلّة وغير مدروسة جيدًا للنماذج اللغوية الكبيرة بدون أمثلة، مما يقترح أنه يمكن استخراج قدرات إدراكية شاملة متعددة المهام وعالية المستوى بواسطة تحفيز بسيط. نأمل أن يعمل بحثنا ليس فقط كأساس أقوى وأقل تعقيدًا للقياس بدون أمثلة للمعايير الإدراكية الصعبة فحسب، بل يسلط الضوء أيضًا على أهمية استكشاف وتحليل المعرفة الهائلة بدون أمثلة الموجودة داخل النماذج اللغوية الكبيرة بدقة قبل صياغة مجموعات بيانات التعديل الدقيق أو أمثلة قليلة الأمثلة.