CRINN: التعلم التعزيزي المقابل للبحث عن الجيران الأقرب التقريبي

أصبحت خوارزميات البحث عن أقرب جار تقريبي (ANNS) أكثر أهميةً بشكل متزايد في التطبيقات الحديثة للذكاء الاصطناعي، وخاصةً في تطبيقات التوليد المدعوم بالاسترجاع (RAG) والتطبيقات القائمة على الوكلاء باستخدام النماذج اللغوية الكبيرة (LLMs). في هذه الورقة، نقدم CRINN، وهي منظور جديد لخوارزميات ANNS. حيث تُعامل تحسين ANNS كمشكلة تعلم التقويم (Reinforcement Learning)، بحيث تُستخدم سرعة التنفيذ كمُكافأة (Reward Signal). يُمكّن هذا النهج من توليد تطبيقات ANNS الأسرع تدريجيًا بشكل تلقائي، مع الحفاظ على قيود الدقة. أظهرت تقييماتنا التجريبية فعالية CRINN عبر ستة مجموعات بيانات شائعة الاستخدام في اختبارات البحث عن أقرب جار (NNS). مقارنةً بالخوارزميات المفتوحة المصدر الرائدة في مجال ANNS، حققت CRINN أفضل أداءً في ثلاث منها (GIST-960-Euclidean، MNIST-784-Euclidean، وGloVe-25-angular)، وتحصل على المركز الأول بالتعادل في مجموعتين أخريين (SIFT-128-Euclidean وGloVe-25-angular). تمتد آثار نجاح CRINN إلى ما هو أبعد من تحسين خوارزميات ANNS: فهي تؤكد أن النماذج اللغوية الكبيرة المُعززة بتعلم التقويم قادرة على العمل كأداة فعّالة في أتمتة عمليات التحسين الخوارزمية المعقدة التي تتطلب معرفة متخصصة وعملًا يدويًا مكثفًا. يمكن الاطلاع على الكود على الرابط التالي: https://github.com/deepreinforce-ai/CRINN