Command Palette
Search for a command to run...
トランスフォーマーは時系列予測に効果的か?
トランスフォーマーは時系列予測に効果的か?
Ailing Zeng Muxi Chen Lei Zhang Qiang Xu
概要
最近、長期時系列予測(Long-Term Time Series Forecasting: LTSF)タスクに対するTransformerベースのソリューションの開発が急速に進んでいます。過去数年間で性能は向上してきましたが、本研究ではこの研究方向の妥当性を疑問視しています。具体的には、Transformerは長いシーケンス内の要素間の意味論的な相関関係を抽出する上で最も成功したソリューションであると主張されています。しかし、時系列モデリングにおいては、順序付けられた連続点の集合から時間的な関係を抽出することが求められます。Transformerにおける位置エンコーディングの使用やサブシーケンスを埋め込むためのトークンの利用により、ある程度の順序情報が保たれることは事実ですが、\emph{置換不変性}を持つ自己注意機構の本質により、時間情報の損失が避けられません。我々の主張を検証するために、LTSF-Linearと名付けられた驚くほど単純な一層線形モデルを導入し比較しました。9つの実際のデータセットでの実験結果は、LTSF-Linearが既存の複雑なTransformerベースのLTSFモデルよりも全ての場合で優れており、しばしば大幅に上回ることが示されました。さらに、LTSFモデルの様々な設計要素が時間的関係抽出能力に及ぼす影響について包括的な経験的研究を行いました。この驚くべき発見がLTSFタスクに関する新たな研究方向を開くことを期待しています。また、将来において他の時系列分析タスク(例:異常検知)に対するTransformerベースのソリューションの妥当性を見直すことを提唱します。コードは以下のURLで入手可能です: \url{https://github.com/cure-lab/LTSF-Linear}。注:「\emph{置換不変性}」という表現は一般的ではありませんが、「permutation-invariant」を直接翻訳するとこのような意味になります。もしより一般的な表現が必要であれば、「順序不変性」としても問題ないかと思います。