بدون ترك أي معلمة خلفًا: كيف تؤثر التقطيع والحجم النموذجي على الاسترجاع الصفري

أظهرت الدراسات الحديثة أن النماذج الصغيرة المُختزلة للغة تُعدّ منافسًا قويًا للنماذج الأكبر بمرات عديدة والأبطأ في مجموعة واسعة من مهام استرجاع المعلومات. وقد جعل هذا الوضع النماذج المُختزلة والكثيفة، نظرًا للقيود المتعلقة بالتأخير (latency)، الخيار المفضل للاستخدام في التطبيقات الواقعية لاسترجاع المعلومات. في هذه الدراسة، نشكك في هذه الممارسة من خلال إثبات أن عدد المعلمات وتأثير التفاعل المبكر بين الاستعلام والوثيقة يلعبان دورًا مهمًا في قدرة النموذج على التعميم. تُظهر تجاربنا أن زيادة حجم النموذج تؤدي إلى مكاسب طفيفة على مجموعات الاختبار داخل المجال، لكنها تُحقّق مكاسب كبيرة جدًا في مجالات جديدة لم تُرى مطلقًا أثناء التدريب الدقيق (fine-tuning). علاوةً على ذلك، نُظهر أن نماذج إعادة الترتيب (rerankers) تتفوّق بشكل كبير على النماذج الكثيفة ذات الحجم المماثل في عدة مهام. وبلغ أكبر نموذج إعادة ترتيب لدينا المستوى الرائد (state of the art) في 12 من أصل 18 مجموعة بيانات ضمن معيار Benchmark-IR (BEIR)، وتفوق المستوى السابق بـ 3 نقاط متوسطة. وأخيرًا، نؤكد أن الأداء داخل المجال لا يُعد مؤشرًا جيدًا للفعالية في المهام الصفرية (zero-shot). يُمكن الاطلاع على الكود من خلال الرابط التالي: https://github.com/guilhermemr04/scaling-zero-shot-retrieval.git