15日前

PatchMixer:長期時系列予測のためのパッチミキシングアーキテクチャ

Zeying Gong, Yujin Tang, Junwei Liang
PatchMixer:長期時系列予測のためのパッチミキシングアーキテクチャ
要約

近年、Transformerは時系列予測タスクにおける主流アーキテクチャとして広く採用されているが、根本的な課題が依然として存在する。すなわち、Transformerに内包される置換不変(permutation-invariant)な自己注意機構(self-attention)により、時系列情報が損失してしまう点である。この課題に対処するため、本研究では新たなCNNベースのモデルであるPatchMixerを提案する。PatchMixerは、時系列情報を保持するための置換変化(permutation-variant)型の畳み込み構造を導入している。従来のこの分野におけるCNNアーキテクチャがしばしば多スケールや多数の分岐構造を採用するのに対し、本手法は深さ方向分離畳み込み(depthwise separable convolutions)のみに依拠している。これにより、単一スケールのアーキテクチャで局所的特徴とグローバルな相関関係の両方を効率的に抽出可能となる。さらに、将来の時系列曲線のトレンドおよび詳細をより正確にモデル化するため、線形成分と非線形成分を併せ持つ二重予測ヘッド(dual forecasting heads)を採用している。7つの時系列予測ベンチマークにおける実験結果から、最先端手法および最優秀CNNモデルと比較して、PatchMixerはそれぞれ3.9%および21.2%の相対的な性能向上を達成しつつ、最も先進的な手法よりも2~3倍の高速性を実現した。

PatchMixer:長期時系列予測のためのパッチミキシングアーキテクチャ | 最新論文 | HyperAI超神経