مُمزِجات الوقت الصغيرة (TTMs): نماذج مُدرَّبة مسبقًا سريعة لتحسين التنبؤ الصفرية/القليلة بسلسلة زمنية متعددة المتغيرات

تميل النماذج الكبيرة المُدرّبة مسبقًا إلى التفوق في التعلم الصفرية/القليلة العينات في المهام المتعلقة باللغة والرؤية، لكنها تواجه صعوبات في تنبؤ السلاسل الزمنية متعددة المتغيرات (TS) بسبب تنوع خصائص البيانات. ونتيجة لذلك، ركّزت الجهود البحثية الحديثة على تطوير نماذج مُدرّبة مسبقًا لتنبؤ السلاسل الزمنية. تُظهر هذه النماذج، سواء أُنشئت من الصفر أو تم تعديلها من نماذج لغوية كبيرة (LLMs)، أداءً متميزًا في مهام التنبؤ الصفرية/القليلة العينات. ومع ذلك، تُعاني من أداء بطيء، واحتياجات عالية للحساب، وتجاهل للارتباطات بين القنوات المختلفة والارتباطات الخارجية. ولحل هذه التحديات، نقدّم نموذج Tiny Time Mixers (TTM)، وهو نموذج صغير الحجم (يبدأ من 1 مليون معامل) يتمتع بقدرات فعّالة للتعلم القابل للانتقال، ومُدرّب حصريًا على مجموعات بيانات عامة للسلاسل الزمنية. يعتمد TTM على بنية TSMixer خفيفة الوزن، ويُدمج فيه ابتكارات مثل تقسيم تكيفي (adaptive patching)، وعينة متعددة الدقة، وضبط مسبّق للدقة (resolution prefix tuning)، لتمكينه من معالجة التدريب المسبق على بيانات ذات دقة متفاوتة بحد أدنى من القدرة النموذجية. علاوةً على ذلك، يستخدم نموذج TTM نمذجة متعددة المستويات لالتقاط الارتباطات بين القنوات ودمج الإشارات الخارجية أثناء التدريب الدقيق. يتفوّق TTM على المعايير الشائعة الحالية في التنبؤ الصفرية/القليلة العينات بنسبة تتراوح بين 4% إلى 40%، مع تقليل كبير في متطلبات الحوسبة. كما أن نماذج TTM خفيفة جدًا، ويمكن تشغيلها حتى على الأجهزة التي تمتلك وحدة معالجة مركزية فقط (CPU-only)، مما يعزز سهولة الاستخدام ويشجع على انتشارها في البيئات ذات الموارد المحدودة. يمكن الحصول على أوزان النموذج لغرض إعادة التكرار والبحث عبر الرابط التالي: https://huggingface.co/ibm/ttm-research-r2/. أما أوزان النموذج المخصصة للاستخدام في المؤسسات، والتي تُوزَّع بموجب ترخيص Apache، فهي متاحة كما يلي: النسخة الأولية TTM-Q من خلال https://huggingface.co/ibm-granite/granite-timeseries-ttm-r1، بينما تتوفر أحدث النسخ (TTM-B، TTM-E، TTM-A) عبر الرابط: https://huggingface.co/ibm-granite/granite-timeseries-ttm-r2.