HyperAIHyperAI
منذ 2 أشهر

تعلم التذكر المزيد مع أقل حفظ

Hung Le; Truyen Tran; Svetha Venkatesh
تعلم التذكر المزيد مع أقل حفظ
الملخص

شبكات العصبي المعززة بالذاكرة المكونة من متحكم عصبي وذاكرة خارجية أظهرت إمكانات في التعلم التتابعي طويل الأمد. تحافظ النماذج الحالية للذاكرة المشابهة لذاكرة الوصول العشوائي (RAM) على الوصول إلى الذاكرة في كل خطوة زمنية، مما يجعلها لا تستفيد بشكل فعال من الذاكرة قصيرة المدى التي تحتفظ بها المتحكم. نفترض أن هذا الأسلوب في الكتابة غير مثالي في استخدام الذاكرة ويؤدي إلى حسابات زائدة. لتأكيد فرضيتنا، نشتق حدًا نظريًا لكمية المعلومات المخزنة في نظام مشابه لنظام ذاكرة الوصول العشوائي (RAM) ونقوم بصياغة مشكلة تحسين تهدف إلى تعظيم هذا الحد. تم إثبات أن الحل المقترح والمعروف باسم الكتابة الموحدة هو الأمثل تحت افتراض مساهمة الخطوات الزمنية المتساوية. لتوسيع هذا الافتراض، نقدم تعديلات على الحل الأصلي، مما يؤدي إلى حل يُسمى الكتابة الموحدة المؤقتة (Cached Uniform Writing). يهدف هذا الأسلوب إلى تحقيق التوازن بين تعظيم الحفظ والنسيان عبر آليات الإزاحة. من خلال مجموعة شاملة من التجارب، نثبت تجريبيًا المزايا التي يتمتع بها حلولنا مقارنة بالهياكل المتكررة الأخرى، ونؤكد أنها تعتبر أفضل التقنيات الحالية في مجموعة متنوعة من مهمات النمذجة التتابعية.

تعلم التذكر المزيد مع أقل حفظ | أحدث الأوراق البحثية | HyperAI