微型时间混合器(TTMs):用于多变量时间序列增强型零样本/少样本预测的快速预训练模型

大规模预训练模型在语言与视觉任务的零样本(zero-shot)和少样本(few-shot)学习中表现出色,但在多变量时间序列(TS)预测任务中仍面临挑战,主要源于数据特征的多样性。为此,近期研究致力于开发专门的预训练时间序列预测模型。这些模型或从零构建,或基于大规模语言模型(LLM)改造而来,均在零样本/少样本预测任务中表现优异。然而,它们普遍存在推理速度慢、计算资源消耗高,以及对通道间相关性与外生变量相关性建模不足等问题。为解决上述问题,本文提出 Tiny Time Mixers(TTM),一种参数量极小(起始仅100万参数)且具备强大迁移学习能力的轻量级模型,其训练仅依赖公开的时间序列数据集。TTM基于轻量级TSMixer架构,引入多项创新机制,包括自适应分块(adaptive patching)、多分辨率采样(diverse resolution sampling)以及分辨率前缀调优(resolution prefix tuning),从而在极低模型容量下有效处理不同分辨率数据集的预训练任务。此外,TTM采用多层次建模策略,在微调阶段捕捉通道间的复杂相关性,并有效融合外生信号。实验结果表明,TTM在零样本与少样本时间序列预测任务中显著优于现有主流基准模型,性能提升达4%至40%,同时大幅降低计算开销。更重要的是,TTM模型轻量化程度高,可在仅配备CPU的设备上运行,显著提升实用性,推动其在资源受限环境中的广泛应用。为保障研究可复现性与学术共享,本文已将模型权重公开于:https://huggingface.co/ibm/ttm-research-r2/。面向企业级应用,采用Apache许可证的模型权重亦可获取:初始版本TTM-Q见于 https://huggingface.co/ibm-granite/granite-timeseries-ttm-r1;最新版本(TTM-B、TTM-E、TTM-A)的权重则可通过 https://huggingface.co/ibm-granite/granite-timeseries-ttm-r2 获取。