titan AI: تخطيط حدود الذكاء الصناعي بمُحاكاة الذاكرة البشرية المتكيفة
هل يمكن للذكاء الاصطناعي تطوير ذاكرة متكيفة مثل ذاكرتنا؟ ماذا نتعلم اليوم؟ طور فريق من Meta تقنية جديدة تُدعى CoCoMix (Tack et al., 2025)، التي تجعل من التعلم المفاهيمي حقيقة واقعة، أي تعلم المفاهيم خلف الكلمات بدلاً من مجرد التنبؤ بالكلمة التالية. هذا جعل النماذج اللغوية الكبيرة (LLMs) أكثر قابلية للتحكم وتفسير النتائج. ومع ذلك، لا تزال هناك تحديات في التذكر الدقيق والمفصل بعد التدريب، خاصة عند التعامل مع كميات كبيرة من البيانات. المشكلات الحالية مع معمارية الترانسفورمرز (Transformers) مع انتشار معمارية الترانسفورمرز (Vaswani et al., 2017) على نطاق واسع في مجال الذكاء الاصطناعي، ظهرت بعض القيود. أبرز هذه القيود هو اهتمام الترانسفورمرز بجميع البيانات في كل مرة، مما يجعلها باهظة الثمن حسابياً ويحد من قدرتها على التذكر طويل الأمد. بالإضافة إلى ذلك، فإن هذه المعمارية لا تمتلك مرونة في التعلم أثناء الاستدلال (inference)، حيث أنها تطبق معرفتها المدربة مسبقًا بدون القدرة على التكيف مع البيانات الجديدة. الحل؟ التيتانز (Titans)! قام الباحثون بتطوير معمارية جديدة تُدعى التيتانز (Behrouz et al., 2025) التي تستلهم من طريقة عمل الدماغ البشري في إدارة الذاكرة والتكيف مع المواقف الجديدة. هذه المعمارية تتألف من نظام ذاكرة تعاوني يتضمن ثلاثة مكونات أساسية: الذاكرة قصيرة المدى (STM): هذا النظام يركز على المعلومات الحالية بشكل دقيق، مثل تذكر الكلمات التي تمت مشاركتها للتو. وحدة الذاكرة طويلة المدى (LMM): هذه الوحدة تتعلم وتتكيف أثناء الاستدلال، مما يعني أن معلماتها تتغير بشكل ديناميكي. تشبه هذه الوحدة القدرة البشرية على إضافة تجارب جديدة وتناسي الأحداث غير المهمة. الذاكرة الدائمة (PM): تحتفظ هذه الذاكرة بالمعلومات الأساسية والخاصة بالمهمة، وهي تمثل الأساس المعرفي للنموذج. كيفية تنفيذ وحدات الذاكرة وحدة الذاكرة طويلة المدى (LMM) اللبه الرئيسي في هذه المعمارية هو وحدة الذاكرة طويلة المدى (LMM)، التي تستخدم مبدأ الخسارة الجمعية (associative loss function) لربط المفاتيح (cues) بالقيم (information). يتم تحديث معلمات LMM باستخدام إشارة "المفاجأة" (surprise signal)، وهي تقيس مدى مفاجأة النموذج عند رؤية البيانات الحقيقية. هذا التحديث يتم ديناميكيًا بناءً على الاتجاهات الحديثة ومدى أهمية المعلومات القديمة. ترتيبات وحدات الذاكرة في التيتانز الذاكرة كسياق (MAC) في هذا الترتيب، يتم تقسيم المدخلات الطويلة إلى أجزاء، ويتم استخدام LMM لاسترجاع السياق التاريخي ذي الصلة. يتم دمج هذا السياق مع الذاكرة الدائمة والمدخلات الحالية، ثم يتم تمرير هذه المجموعة إلى طبقة الذاكرة قصيرة المدى (STM). تُستخدم النتائج النهائية لتحديث LMM مرة أخرى. الذاكرة كبوابة (MAG) في هذا التصميم، يتم دمج المعلومات من STM وLMM عبر بوابة ديناميكية. يتم تمرير المدخلات إلى طريقين متوازيين: واحد يذهب إلى STM، والآخر إلى LMM. تتعلم البوابة كيفية مزج المعلومات من الطريقين لإنتاج النتيجة النهائية. الذاكرة كطبقة (MAL) في هذا الترتيب، يتم استخدام LMM كطبقة أولية للمعالجة، حيث تُعدل المدخلات قبل أن تصل إلى طبقة الاهتمام (attention). يتم تحديث معلمات LMM أثناء معالجة كل جزء، وتُستخدم النتائج النهائية لتحديث LMM مرة أخرى. ما الذي نحصل عليه من كل هذا؟ النتائج والأبحاث براعة اللغة: أكثر من مجرد كلمات أظهرت التيتانز قدرة أعمق وأكثر حدسية على اللغة والسياق بفضل وحدة الذاكرة طويلة المدى (LMM). حققت هذه النماذج أداءً أفضل من النماذج القوية الأخرى مثل Transformer++ والأنماط التكرارية الحديثة في مهام نمذجة اللغة والعقلانية الشائعة. تحدي الإبرة في الكومة أظهرت تصاميم التيتانز أداءً متميزًا في مهمة S-NIAH من معيار RULER (Hsieh et al., 2024)، والتي تقيس فعالية طول السياق. حافظت نماذج التيتانز على معدلات استرجاع قوية حتى عند 16 ألف رمز، بينما انخفضت دقة النماذج المتكرارية الحديثة بشكل حاد مع زيادة طول المتسلسلة. إتقان العقلانية المعقدة في BABILong في معيار BABILong (Kuratov et al., 2024)، الذي يطلب العقلانية باستخدام حقائق متعددة موزعة على سياقات ضخمة، لم تكتف التيتانز (خاصة تصميم MAC) بالأداء الجيد فحسب، بل تفوقت على جميع النماذج الأخرى، بما في ذلك النماذج الكبيرة مثل GPT-4 وLlama 3.1–70B. حققت التيتانز دقة 70% حتى عند 10 ملايين رمز، وهو رقم مثير للإعجاب. العمق الزمني مقابل السرعة أجرى الباحثون دراسة حول تأثير زيادة عمق LMM بتعريج طبقات إضافية. أظهرت النتائج أن LMM أعمق يحسن بشكل كبير قدرة النموذج على تخزين وتنظيم المعلومات الهامة، مما يجعله أقل عرضة للنسيان في المتسلسلات طويلة الأمد. ومع ذلك، فإن زيادة العمق تأتي بثمن: خفض في عدد الرموز المعالجة في الثانية الواحدة. تطبيقات خارج مهام اللغة تنبوء السلاسل الزمنية في مجال تنبوء السلاسل الزمنية، الذي يشتهر بهياجنته وأنماطه المتغيرة، أثبتت وحدة الذاكرة طويلة المدى (LMM) فعاليتها حتى ضد النماذج المتخصصة الأخرى، بما في ذلك تلك التي تستند إلى Mamba (SOTA السابقة). نمذجة الحمض النووي (DNA) في مهمة نمذجة الحمض النووي، أظهرت المعمارية نتائج قوية، مما يشير إلى أن الذاكرة، عند التعامل معها بشكل جيد، تكون مفيدة وأساسية في مجالات مختلفة. الخاتمة والخواطر النهائية تمثّل معمارية التيتانز خطوة واعدة نحو مستقبل حيث يمكن للنماذج اللغوية التكيف والتعلم أثناء الاستدلال، وليس فقط استخدام المعرفة الموجودة لديها. على الرغم من المنافسة الشديدة في مجال الذكاء الاصطناعي اليوم، فإن هذا البحث يفتح الأفق لتطوير نماذج أكثر ذكاءً وإبداعًا. قد لا تكون هذه المعمارية هي الحل النهائي، لكنها تقدم فكرة مبتكرة ومهمة حول كيفية تحسين الذكاء الاصطناعي. تقييم الحدث من قبل المختصين يُعتبر هذا البحث من قبل العديد من المختصين في مجال الذكاء الاصطناعي خطوة هامة نحو تطوير نماذج أكثر مرونة وذكاءً. على الرغم من أنه قد يواجه تحديات في الاعتماد العام بسبب تعقيد التنفيذ والكفاءة الحسابية، إلا أنه يوفر إمكانات كبيرة للتطبيقات المتخصصة والمهام التي تتطلب تذكرًا طويل الأمد وتكيّفًا ديناميكيًا. نبذة تعريفية عن شركة Meta Meta هي شركة تقنية عالمية رائدة في مجال الواقع المعزز والواقع الافتراضي والذكاء الاصطناعي. تأسست الشركة عام 2004 باسم Facebook، وقد توسعت بشكل كبير لتضم العديد من التطبيقات والخدمات، بما في ذلك Instagram وWhatsApp. تعتبر Meta واحدة من أكبر الشركات المساهمة في البحث والتطوير في مجال الذكاء الاصطناعي، ولديها فرق بحثية متخصصة تعمل على تطوير تقنيات متقدمة مثل CoCoMix وTitans.