AgentFly: تحسين الوكلاء الذكية دون تعديل نماذج الذكاء الاصطناعي الكبيرة كيف يحقق التعلم القائم على الذاكرة دقة 87% في اختبارات GAIA دون تحديثات مكلفة للبارامترات الفرق بين AgentFly والطرق التقليدية يشبه الفرق بين التعلم من الخبرة والمسح الكامل لذاكرتك كلما أردت التحسن في شيء ما. كل محاولة لجعل الوكلاء الذكية أكثر ذكاءً ت столك بحاجز متشابه: تحديثات تدريبية مكلفة تعتمد على التدرجات الحسابية، وتستهلك ملايين الدولارات وتُهدد بحذف كل ما تعلمته النموذج سابقًا. الطرق الحالية تتطلب تحديثًا لمليارات البارامترات عبر عمليات تدريب مكلفة. وكل دورة تحسين تستهلك ميزانيات ضخمة من الحوسبة، مع خطر التذكر الكارثي — حيث تفقد النموذج ما تعلمته سابقًا. AgentFly يكسر هذه الدورة تمامًا. هذا النهج الجديد يُحسّن الوكلاء الذكية دون تعديل النماذج الكبيرة (LLMs) الأساسية. بدلًا من التحديثات المكلفة للبارامترات، يُدرّب الوكلاء من خلال التعلم القائم على الذاكرة — حيث يتم تخزين التجارب واسترجاعها عند الحاجة.
تواجه محاولة تطوير وكالات ذكية اصطناعية (AI Agents) عقبة كبيرة تتمثل في التكلفة الباهظة وتعقيد عمليات التدريب الدقيق (Fine-Tuning) للنماذج الكبيرة للغة (LLMs). ففي النماذج التقليدية، يتطلب تحسين الأداء تحديثًا مكثفًا لبلايين المعلمات، ما يستهلك موارد حوسبة ضخمة وتُعدّ عملية مكلفة، بل وقد تؤدي إلى ما يُعرف بـ"النسيان الكارثي"، حيث تفقد النماذج المعرفة السابقة أثناء التعلم الجديد. يقدم "AgentFly" حلًا جذريًا لهذا التحدي، من خلال إعادة تصور طريقة تدريب الوكالات الذكية. بدلًا من تعديل المعلمات الأساسية للنموذج اللغوي الكبير، يعتمد AgentFly على تعلم مبني على الذاكرة: حيث يُخزن الوكيل تجاربه السابقة، ثم يسترجعها عند الحاجة لاتخاذ قرارات أكثر دقة. هذا النهج يشبه كيف يتعلم الإنسان من تجاربه دون الحاجة إلى إعادة تشكيل ذاكرته بالكامل كل مرة. النتيجة مذهلة: تمكّن AgentFly من تحقيق دقة تصل إلى 87% في اختبارات GAIA، وهي مجموعة معايير صارمة تقيس قدرة الوكالات على حل مهام معقدة تتطلب تفكيرًا منطقيًا وتحليلًا متعدد المراحل، دون أي تحديث للوحة المعلمات في النموذج اللغوي الأساسي. هذا يقلل التكاليف الحسابية بشكل كبير، ويحافظ على المعرفة المكتسبة سابقًا. يتم ذلك من خلال هيكلة مبتكرة تُسمى "الذاكرة التفاعلية"، حيث يتم تخزين كل تجربة كمُدخل مُصنّف يحتوي على السياق، الإجراءات المتخذة، والنتائج. عند مواجهة مهمة جديدة، يبحث الوكيل في هذه الذاكرة بحثًا عن حالات مشابهة، ثم يستخدمها لتوجيه قراراته. يُستخدم خوارزميات ذكية لاسترجاع التجارب الأكثر صلة، وتحليلها، وتعديل سلوك الوكيل بناءً عليها، دون لمس النموذج الأساسي. من الناحية الرياضية، يعتمد النموذج على نماذج تشبه التعلم المعزز (Reinforcement Learning)، لكن بأسلوب يقلل من التكلفة الحسابية من خلال تقليل الحاجة إلى التقديرات التكرارية للدرجات (Gradients). بدلًا من حساب التدرجات عبر آلاف التكرارات، يعتمد AgentFly على خوارزميات تُحدد تجربة "مثالية" من الذاكرة، ثم تُستخدم لتوجيه السلوك، ما يُقلل من الحاجة إلى التدريب الطويل. ما يميز AgentFly ليس فقط كفاءته، بل أيضًا مرونته: يمكنه التعلم من مهام متعددة ومتباينة دون أن يُفقد ما تعلمه سابقًا. كما يُسهل التكامل مع أنظمة حقيقية، حيث يمكن تحديث الذاكرة بسهولة دون الحاجة إلى إعادة تدريب النموذج. باستبدال التدريب الدقيق المكلف بتعلم ذكي مبني على الذاكرة، يُعيد AgentFly تشكيل مفهوم تطوير الوكالات الذكية. لا يُعدّ مجرد تحسين تقني، بل تحول جذري في كيفية تفكيرنا حول تطوير الذكاء الاصطناعي القائم على النماذج الكبيرة. مع الحفاظ على كفاءة النموذج الأساسي، يُمكن للوكالات أن تتعلم باستمرار، وتنمو بذكاء، دون أن تُكلّف ملايين الدولارات أو تُهدد معرفتها السابقة.