Command Palette
Search for a command to run...
Vihari Piratla Purvam Jain Darshan Singh Partha Talukdar Trevor Cohn

الملخص
يُعبَّر عادةً عن أي معرفة بوساطة لغة طبيعية واحدة أو عدد قليل من اللغات الطبيعية على الويب أو في أي مجموعة بيانات كبيرة. وتعمل نماذج اللغة الكبيرة (LLMs) كجسر من خلال اكتساب المعرفة من لغة مصدرية وجعلها متاحة عند طلبها بلغات الوجهة. وحددت الأبحاث السابقة فجوة عابرة للغات، أي انخفاض في الدقة عند طلب المعرفة بلغة الوجهة مقارنةً بطلبها بلغة المصدر. واعتبرت الأبحاث الحالية التباين في التمثيلات الخفية بين اللغات المصدرية والوجهة سببًا للفجوة العابرة للغات. في هذا العمل، نتبّع منظورًا بديلًا ونفترض أن التباين في الاستجابات بلغة الوجهة هو السبب الرئيسي في هذه الفجوة. ولأول مرة، نُصَرِّف الفجوة العابرة للغات من خلال تحليل التحيز-التباين. ونقدّم أدلة تجريبية واسعة تدعم الصيغة والفرضية المطروحة. ثم نُعزّز فرضيتنا من خلال تدخلات متعددة أثناء الاستدلال (inference-time) تُحدِّد التباين وتقلل من الفجوة العابرة للغات. ونُظهر تعليمات مبسطة في صيغة المُطالَب (prompt) تُقلل من تباين الاستجابات، ما أدى إلى تحسين دقة الوجهة بنسبة 20-25% عبر نماذج مختلفة.
بناء الذكاء الاصطناعي بالذكاء الاصطناعي
من الفكرة إلى الإطلاق — عجّل تطوير الذكاء الاصطناعي الخاص بك من خلال البرمجة المشتركة المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.