تقنية ذكاء اصطناعي جديدة تُقلّص ذاكرة محادثات نماذج اللغة الكبيرة بنسبة 3 إلى 4 أضعاف
أعلن فريق بحثي بجامعة سول الوطنية للهندسة، بقيادة البروفيسور هيون أوه سون من قسم علوم الحاسوب، عن تطوير تقنية ذكاء اصطناعي جديدة تُسمى "KVzip"، تُعدّ خطوة مهمة في تحسين كفاءة نماذج اللغة الكبيرة (LLM) في المحادثات الطويلة. تُنشر الدراسة على منصة arXiv، وتُركّز على تقليل حجم "ذاكرة المحادثة" التي تُستخدمها الروبوتات الحوارية، وهي البيانات المؤقتة التي تحتفظ بها النماذج لفهم السياق وتقديم إجابات متماسكة. تُعدّ هذه الذاكرة عبئًا كبيرًا في المهام الطويلة مثل التلخيص أو المحادثات الممتدة، حيث ترتفع التكلفة الحسابية وتتباطأ سرعة الاستجابة. ورغم وجود تقنيات تCompression سابقة، إلا أنها غالبًا ما تكون مُتخصصة في السؤال الحالي فقط، مما يؤدي إلى تدهور الأداء عند طرح أسئلة متتابعة. تفتقر تقنية KVzip إلى هذه القيود، حيث تقوم بضغط الذاكرة بشكل ذكي، مع الحفاظ على المعلومات الأساسية فقط التي تُمكّن النموذج من إعادة بناء السياق بدقة، حتى مع طرح أسئلة متعددة لاحقًا. النتيجة: تقليل حجم الذاكرة بنسبة 3 إلى 4 أضعاف، وزيادة سرعة الاستجابة بحوالي 2 مرة، دون أي تراجع في الدقة. كما أظهرت التقنية أداءً ممتازًا في مهام متنوعة مثل الإجابة على الأسئلة، استرجاع المعلومات، التفكير المنطقي، وفهم الكود، وتمكّنت من التعامل مع سياقات تصل إلى 170,000 رمز باستخدام نماذج مفتوحة المصدر مثل Llama 3.1 وQwen 2.5 وGemma 3. ما يميز KVzip أيضًا هو قدرتها على إعادة استخدام الذاكرة المضغوطة دون الحاجة إلى إعادة ضغطها عند كل سؤال، مما يضمن استقرار الجودة في المحادثات الطويلة. وقد تم دمج التقنية في مكتبة NVIDIA المفتوحة المصدر KVPress، مما يسهل تطبيقها في الأنظمة الحقيقية. من المتوقع أن تُستخدم KVzip على نطاق واسع في أنظمة الشركات، خصوصًا في أنظمة التوليد المدعوم بالاسترجاع (RAG) والروبوتات الحوارية المخصصة، حيث تُقلل من استهلاك الذاكرة وتكاليف التشغيل، وتمكّن الخوادم من التعامل مع عدد أكبر من المستخدمين في آن واحد. كما أن خصائصها تجعلها مثالية للبيئات المحدودة مثل الأجهزة المحمولة أو الحوسبة الحافة، حيث تُمكّن من محادثات طويلة وشخصية دون اعتماد على الخوادم. صرّح البروفيسور سون بأن KVzip تمثل تقدّمًا كبيرًا في تمكين النماذج من الحفاظ على ذاكرة مضغوطة قابلة لإعادة الاستخدام، حتى في المهام التي تتطلب فهمًا طويلًا للسياق. أما الدكتور جانغ هيون كيم، المُعد الرئيسي للبحث، فقد أشار إلى إمكانية تطبيق KVzip بسلاسة في التطبيقات الحقيقية، مع الحفاظ على الجودة والسرعة. وستنضم كيم إلى فريق النماذج الأساسية في الذكاء الاصطناعي والتعلم الآلي في شركة آبل كباحثة في مجال التعلم الآلي. إلى جانب KVzip، نُشرت ثلاث أوراق بحثية أخرى من مختبر التعلم الآلي التابع للبروفيسور سون، شملت تحليلًا نظريًا لتحسين توزيع عدد البتات في نماذج اللغة (Q-Palette)، ونظام تعلم مدعوم بالتحفيز لتحسين استراتيجيات البحث (Guided-ReST)، وطريقة للكشف عن الأسباب المؤثرة في الأنظمة الكبيرة، جميعها حققت نتائج متميزة في معايير أداء عالمية.
