ورقة ميتا سوبرإنتيليجنس الأولى تُذهل بالتركيز على كفاءة ربط المعرفة بالذكاء الاصطناعي
أثارت مختبرات "سوبرإن텔يجنس" التابعة لشركة ميتا موجة من الاهتمام بعد إعلانها عن رواتب مغرية للباحثين، وانضمام عدد من المؤسسين البارزين إليها. لذا، عندما نشرت المختبرات أول بحث لها، تناولناه بعناية. الورقة البحثية، المنشورة على arXiv تحت رقم 2509.01092، تركز على تقنية جديدة تُدعى REFRAG، وهي مفاجأة كبيرة لأنها لا تتناول تحسينات في النموذج الأساسي (مثل تطوير هياكل جديدة أو تدريب على بيانات أكبر)، بل تركز على تحسين كفاءة نموذج RAG – وهو مكون أساسي في تطبيقات الذكاء الاصطناعي الحديثة. RAG (Retrieval-Augmented Generation) يُستخدم في تطبيقات مثل المساعدات الافتراضية، البحث المدعوم بالذكاء الاصطناعي، والتحليل التلقائي للنصوص. لكنه يواجه تحديات كبيرة في التكلفة والتأخير الزمني (latency)، خاصةً عند استرجاع كميات كبيرة من البيانات. فكلما زادت كمية البيانات التي يُرسلها النظام إلى النموذج، زادت التكلفة الحسابية وتأخير الاستجابة، مما يضر بتجربة المستخدم ويُعقّد جدوى النموذج من الناحية الاقتصادية. الابتكار في REFRAG يكمن في تقليل زمن ظهور أول حرف (time-to-first-token) بنسبة تصل إلى 30 ضعفًا، دون التضحية بالدقة. الفكرة الأساسية: بدلاً من إرسال كل قطعة نصية مُسترجعة كنص كامل إلى النموذج، يتم تحويلها إلى تمثيلات مدمجة (embeddings) باستخدام نموذج خفيف الوزن، ثم تُعاد تضمينها في فضاء تمثيل النموذج الأساسي. هذه التمثيلات تُحسب مسبقًا وتُخزن. عند استقبال سؤال المستخدم، يتم ترميزه، ثم يتم استرجاع مجموعة من القطع المُدمجة. هنا يأتي الجزء الذكي: يُستخدم شبكة سياسة صغيرة (policy network) مدربة بالتعلم المعزز (RL) لاختيار عدد قليل من القطع التي يجب توسيعها إلى نص كامل، بينما تبقى باقي القطع كمواقع فارغة (placeholder) تمثّل متجهات مدمجة. النموذج يعالج هذه المجموعة المختلطة — نصوص موسعة ومتجهات — ويُولِّد الإجابة كما لو كانت كل المعلومات نصية. المفتاح هنا هو أن النموذج لا يضطر إلى إعادة تشفير التمثيلات المدمجة إلى نص، ثم إعادة تشفيرها مرة أخرى إلى تمثيلات داخل النموذج. هذا التكرار هو ما يُهدر الموارد. REFRAG يحول هذا التدفق إلى عملية "مدمجة-مدمجة" فقط، مما يقلل التكلفة والتأخير بشكل كبير. النتائج المذكورة في الورقة تُظهر تحسينات ملموسة في الأداء، خاصةً في التوسع (throughput) وتكلفة الاستجابة. هذا يعني أن الشركات يمكنها معالجة عدد أكبر من الاستعلامات باستخدام نفس المعدات، أو تقليل تكاليف البنية التحتية دون التضحية بالجودة. من الجدير بالذكر أن REFRAG لا يتعارض مع تحسينات أخرى في RAG، مثل تحسين محركات الاسترجاع أو إعادة الترتيب (reranking). يمكن دمجه معها لتحسين الأداء بشكل تراكمي. في السياق الأوسع، يأتي هذا البحث في وقت يشهد تغيرات كبيرة في مجال قواعد البيانات المتجهة (vector DB)، حيث تُثار شائعات حول بيع شركة باينكون، وتحديثات قيادية. كما تُظهر أبحاث من ديب مايند أن التمثيلات المدمجة قد لا تصل إلى كل المعلومات المطلوبة، ما يعيد تساؤل فعالية RAG. بالرغم من أن REFRAG لا يزال بحثًا نظريًا، إلا أنه يُظهر اتجاهًا مهمًا: ليس كل التقدم يأتي من نماذج أكبر. التحسينات في العمليات، خاصةً عند مستوى التطبيق، يمكن أن تكون أكثر تأثيرًا في الاقتصاد الحقيقي للمنتجات. الاستنتاج: REFRAG ليست مجرد تحسين تقني، بل دليل على أن ميتا تركز على قضايا جوهرية في التبني العملي للذكاء الاصطناعي. منتجات تستخدم RAG يجب أن تُختبر بعناية باستخدام هذه التقنية، لأن الفوائد ملموسة: تجربة مستخدم أفضل، تكلفة أقل، وربحية أعلى.