كيف تُحسّن أنظمة RAG بقدرات التفكير المنطقي باستخدام نماذج NVIDIA Llama Nemotron
تُعدّ أنظمة التوليد المدعوم بالاسترجاع (RAG) أحد الركائز الأساسية في تطبيقات الذكاء الاصطناعي الحديثة، لكنها تواجه تحديًا جوهريًا: قدرتها على فهم الاستفسارات غير الواضحة أو التي تحمل نوايا ضمنية. مثلاً، عندما يسأل المستخدم: "أخبرني عن أحدث تحديث في تدريب نموذج NVIDIA NeMo"، قد يكون المقصود تطورات في ميزات تخصيص النماذج الكبيرة للغة (LLM)، وليس بالضرورة نماذج الصوت. وبما أن هذه النية غير مُعلنة، فإن الاستجابة قد تكون غير دقيقة. لتجاوز هذه القيود، تم تطوير نموذج مُحسّن لـ RAG يعتمد على قدرات الاستدلال في نماذج NVIDIA Llama Nemotron. هذه النماذج، المبنية على بنية Llama 3.3، تُقدّم أداءً متميزًا في التفكير المنطقي والتحليل السياقي، مما يُعزّز جودة الاسترجاع. الأهم من ذلك، تُستخدم نموذج Nemotron Super 49B v1 كمحرّك للتحليل والاستدلال داخل سير العمل، حيث يُعيد صياغة الاستفسارات الأصلية لتحسين دقة البحث. تتم عملية إعادة صياغة الاستفسار (Query Rewriting) عبر تحويل السؤال غير الدقيق إلى استفسار أكثر دقة وشمولية. يُحلّل نموذج Nemotron الاستفسار لاستخراج الطلب الأساسي، وحذف العبارات غير الضرورية أو المُضللة، ثم يُوسّع الاستفسار بضمّ عبارات مرتبطة مثل "اللغات غير المدعومة"، "البيانات المحدودة"، "الذكاء الاصطناعي المستقل"، أو "التكيف بين المجالات". هذا التوسيع يُحسّن من موثوقية البحث، حتى لو لم تُستخدم المصطلحات الأصلية في الوثائق. في تجربة واقعية، تم تطبيق هذه التقنية على بحث جلسات مؤتمر GTC 2025. عند استخدام الاستفسار الأصلي: "جلسات لتدريب نموذج لغة على لغة غير مدعومة"، كانت الجلسات ذات الصلة غير مُرتبة بشكل جيد، لأن المصطلح "غير مدعومة" لم يُستخدم في العناوين. لكن بعد إعادة صياغة الاستفسار إلى: "جلسات تركز على تدريب نموذج لغة على لغات غير مدعومة، تناقش منهجيات تطوير نماذج لغة مع بيانات تدريب محدودة"، تحسّنت الترتيبات بشكل كبير، حيث ارتفعت جلسات مثل "بناء نماذج متعددة اللغات فعالة حسابيًا للذكاء الاصطناعي المستقل" من المرتبة 20 إلى 7. الناتج المُحسّن يُعزّز أداء مُعدّل الترتيب (reranker) عبر تمكينه من فهم السياق الأوسع، مما يُقلّل من الاعتماد على التطابق الحرفي للمصطلحات. كما أن التحليل السياقي يُقلّل من احتمال التحيّز أو التخمين الخاطئ (Hallucination)، خاصة عند استخدام نماذج عامة. رغم الفوائد، فإن هذه الطريقة تتطلب موارد حسابية أعلى بسبب الحاجة إلى استدلال ذكي، وقد تؤثر على السرعة، مما يجعلها مناسبة أكثر في السياقات التي تُقدّر الدقة على السرعة، مثل الدعم الفني، البحث العلمي، أو الأنظمة المؤسسية. لبدء تطبيق هذا النموذج، يمكن للمطورين استخدام نماذج NVIDIA NIM عبر NVIDIA API Catalog، ودمجها مع أدوات مثل NVIDIA NeMo Retriever ونماذج RAG الجاهزة لبناء أنظمة استرجاع ذكية وفعّالة.