Command Palette
Search for a command to run...

الملخص
تتطلب المهام الواقعية اتخاذ قرارات بدرجات متفاوتة من الدقة، ويتميز البشر بهذه القدرة من خلال الاستفادة من تمثيل ذهني موحد، حيث يُفهم التخطيط بشكل جوهري كشكل عالي المستوى من الفعل. ومع ذلك، فإن الوكلاء القائمين على النماذج اللغوية الكبيرة (LLM) الحاليين يفتقرون إلى هذه القدرة الحاسمة التي تمكنهم من التحرك بسلاسة عبر مستويات مختلفة من دقة القرار. وينبع هذا القيود من النماذج الحالية التي تفرض فصلًا صارمًا بين التخطيط عالي المستوى والعمل المنخفض المستوى، مما يُضعف القدرة على التكيّف الديناميكي ويحد من القدرة على التعميم. نقترح نموذج ReCode (توليد الشفرة المتكرر)، وهو نموذج جديد يعالج هذه القيود من خلال دمج التخطيط والعمل داخل تمثيل شفري موحد. في هذا التمثيل، يُعامل ReCode التخطيط عالي المستوى كدوال محاكية مُجردة، ثم يقوم الوكيل بتفكيكها بشكل متكرر إلى دوال فرعية أدق حتى الوصول إلى الإجراءات الأساسية. ويدفع هذا النهج المتكرر الحدود الصارمة بين التخطيط والعمل، مما يمكّن الوكيل من التحكم الديناميكي في درجة دقة قراراته. علاوةً على ذلك، فإن البنية المتكررة تُولّد تلقائيًا بيانات تدريب غنية ومتعددة المستويات من الدقة، ما يمكّن النماذج من تعلّم عمليات اتخاذ قرارات هرمية. تُظهر التجارب الواسعة أن ReCode يتفوق بشكل كبير على النماذج الأساسية المتقدمة من حيث الأداء أثناء الاستنتاج، كما يُظهر كفاءة استثنائية في التدريب من حيث كمية البيانات المستخدمة، مما يؤكد رؤيتنا الأساسية بأن دمج التخطيط والعمل عبر توليد الشفرة المتكرر يُعد نهجًا قويًا وفعّالًا لتحقيق التحكم الشامل في درجات دقة القرار. يمكن الوصول إلى الشفرة المصدرية عبر الرابط التالي: https://github.com/FoundationAgents/ReCode.
بناء الذكاء الاصطناعي بالذكاء الاصطناعي
من الفكرة إلى الإطلاق — عجّل تطوير الذكاء الاصطناعي الخاص بك من خلال البرمجة المشتركة المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.