تقرير فني عن InternLM2

إن تطور النماذج اللغوية الكبيرة (LLMs) مثل ChatGPT وGPT-4 قد أثار مناقشات حول ظهور الذكاء الاصطناعي العام (AGI). ومع ذلك، ظلت محاكاة هذه التطورات في النماذج المفتوحة المصدر أمرًا صعبًا. تقدم هذه الورقة البحثية نموذج InternLM2، وهو نموذج لغوي كبير مفتوح المصدر، يتفوق على نماذجه السابقة في تقييمات شاملة تغطي 6 أبعاد و30 معيارًا، بالإضافة إلى نمذجة السياقات الطويلة والتقييمات الذاتية المفتوحة، وذلك بفضل تقنيات تدريب مسبق وتحسين مبتكرة. يُفصَّل عملية التدريب المسبق لـ InternLM2 بشكل دقيق، مع تسليط الضوء على إعداد أنواع متنوعة من البيانات، بما في ذلك النصوص والكود والبيانات الطويلة السياق. ويُظهر InternLM2 قدرة فعّالة على التقاط الاعتماديات طويلة المدى، حيث تم تدريبه أولًا على 4000 رمز (token)، ثم تطور إلى 32000 رمز خلال مراحل التدريب المسبق والتحسين الدقيق، مُظهرًا أداءً متميزًا في اختبار "الإبرة في كومة القش" بسياق يبلغ 200 ألف رمز. كما تم تحسين محاذاة InternLM2 باستخدام التحسين المراقب (SFT) واستراتيجية مبتكرة تُعرف بـ "التعلم التكراري من التغذية الراجعة البشرية الشرطية المباشرة" (COOL RLHF)، والتي تعالج التناقضات في تفضيلات البشر والهجمات على المكافآت (reward hacking). وبإطلاق نماذج InternLM2 في مراحل تدريب مختلفة وأحجام نماذج متنوعة، نوفر للمجتمع العلمي رؤى حول تطور النموذج.