17日前
UniTS:統一型マルチタスク時系列モデル
Shanghua Gao, Teddy Koker, Owen Queen, Thomas Hartvigsen, Theodoros Tsiligkaridis, Marinka Zitnik

要約
事前学習されたトランスフォーマーおよび再プログラミングされたテキストベースのLLMは、時系列タスクにおいて優れた性能を示しているが、最適なアーキテクチャはタスクによって大きく異なり、多くのモデルは時系列予測など特定の分野に限定されており、予測と生成の両方の時系列タスクを統合的に扱うことは依然として困難である。本研究では、タスクトークン化(task tokenization)を用いて予測タスクと生成タスクを統合する単一のフレームワークに組み込む、ユニフィード・マルチタスク時系列モデル「UniTS」を提案する。UniTSは、普遍的な時系列表現を捉えるために変更されたトランスフォーマーブロックを採用しており、多様な動的パターン、サンプリングレート、時間スケールを特徴とする異種・多分野の事前学習データセットから、タスク仕様やデータドメインが異なる多様な下流タスクへの転移可能性を実現している。人間の行動センサー、医療、工学、金融の分野にまたがる38のデータセットにおいて評価した結果、UniTSは12種類の予測モデル、20種類の分類モデル、18種類の異常検出モデル、16種類の欠損値補完モデル(テキストベースのLLMを適応したものも含む)と比較して優れた性能を達成した。また、新規ドメインや新規タスクへの適用においても、少数サンプル(few-shot)学習およびプロンプト駆動型の能力を示しており、単一タスク設定においても、競合する専門化された時系列モデルを上回る結果を示した。コードとデータセットは、https://github.com/mims-harvard/UniTS で公開されている。