مُعالجة فجوة السياق في تطوير وكلاء البحث بالذكاء الاصطناعي
يُقدّم هذا المشروع نموذجًا تجريبيًا لوكيل ذكاء اصطناعي يُسمى DeepRishSearch، يعتمد على منهجية ReAct (Reasoning + Acting) لإجراء بحث عميق حول أهداف التنمية المستدامة للأمم المتحدة (SDGs). يتميز الوكيل بقدرة على تحويل مدخلات بسيطة — مثل كلمة مفتاحية أو سؤال عام — إلى قائمة موسعة من الأسئلة البحثية الدقيقة، ثم جمع وتحليل بيانات كمية ونوعية من مصادر موثوقة، مثل بيانات Our World in Data، ونتائج أبحاث من Semantic Scholar، وأخبار حديثة من Tavily، لإنتاج تقارير متكاملة حول تقدم دولة معينة في تحقيق أهداف التنمية. يبدأ الوكيل بمرحلة "الاستيعاب" حيث يُستخدم نموذج DistilBERT لتصنيف الموضوعات وتحديد الأهداف (من أصل 17 هدفًا) وتحديد الكلمات المفتاحية المرتبطة بها. ثم يُولّد نموذج صغير (GPT-4o-mini) أسئلة بحثية متعددة تركز على دولة محددة، مثل إندونيسيا أو مدغشقر. بعد ذلك، يُفعّل "فريق خبراء" محاكي — يتضمن أدوارًا مثل الباحث الأكاديمي، الصحفي، والخبير التحليلي — لجمع المعلومات من مصادر متعددة. يُستخدم Tavily بدلًا من NewsAPI لتحسين دقة النتائج، ويُخزّن التحليل الكمي من OWID لتقدير التوجهات المستقبلية باستخدام نماذج انحدار بسيطة. أظهرت الاختبارات أن الوكيل يتفوق في الدقة مقارنة بـ Gemini 2.5 Pro، الذي يعتمد فقط على تفكيره الداخلي. فبينما قدم Gemini تقييمًا إيجابيًا (6/10) لإندونيسيا في مجال "القضاء على الجوع"، فإن الوكيل، الذي يعتمد على بيانات مُستمدة من مصادر موثوقة، قدم تقييمًا أدق (4/10)، مبررًا ذلك بوجود معدلات عالية من سوء التغذية، والقصور في التغذية، ونتائج منخفضة في مؤشر الجوع العالمي (16.9)، مما يعكس صعوبة التقدم رغم الجهود المبذولة. تم تطوير تطبيق ويب مفتوح المصدر باستخدام Streamlit، يتيح للمستخدمين تجربة الوكيل مباشرة عبر إدخال سؤال أو كلمة مفتاحية، مع دعم لواجهات API من ChatGPT وGemini، ويتطلب مفتاح Tavily لتشغيل الوظيفة الكاملة. يُمكن تكييف هذا النموذج لتطبيقات متعددة مثل توليد أسئلة مقابلات في الموارد البشرية، أو تجهيز مواد مبيعات مخصصة، عبر تدريب الوكيل على بيانات داخلية. يُعدّ هذا النظام أداة مساعدة، لا بديلًا، للخبراء، حيث يُسرّع عملية استخلاص المعلومات من كمّ هائل من البيانات العامة، ويوفر تقارير مركزة تُساعد الباحثين والمحللين على تحديد العقبات والفرص بسرعة. من خلال دمج التغذية الراجعة البشرية وتحديث قاعدة المعرفة باستمرار، يمكن تحسين دقة النموذج من 70–80% إلى أكثر من 90%، مما يعزز موثوقيته على المدى الطويل.