HyperAIHyperAI

Command Palette

Search for a command to run...

中国科学院提出新型时间序列预测框架LVICL,实现高效精准预测

中国科学院ソフトウェア研究所の研究チームは、大規模言語モデル(LLM)を用いた時間系列予測の性能を向上させる新規フレームワーク「LVICL(Vector-Injected Contextual Learning)」を提案した。このフレームワークは、モデルのパラメータを更新せずに、計算コストを抑えながら予測精度を安定して向上させる点が特徴である。 時間系列データとLLMが学習したテキストデータの分布・構造の不一致は、従来の時間系列予測において大きな課題であった。従来のアプローチでは、全量微調整(full fine-tuning)が用いられていたが、これには高コストな訓練と膨大なGPUメモリ消費が伴い、実用性に限界があった。 研究チームは、上下文学習(contextual learning)のアプローチを改良。具体的には、タスク例のベクトル表現を抽出し、順序に依存しない方法で統合することで、例の選択と順序による予測の不安定性を解消。さらに、軽量なアダプタを用いて統合されたベクトルを精練し、予測に不適切な情報を抑制。最終的に、この最適化されたベクトルをLLMの各層の残差接続に注入することで、モデルの予測方向を制御的に導く。 複数の時間系列予測ベンチマークデータセットにおける実験結果から、LVICLはモデルを完全に固定(frozen)した状態で、従来の上下文学習の利点を安定して再現・拡大することを確認。また、軽量微調整手法と比較しても、多数のデータセットと設定で優れた予測性能を示し、効率性と精度のバランスが優れていることが実証された。 本研究は、インターネット分野のトップ国際会議「The Web Conference 2026(WWW-26)」に採択され、時間系列予測におけるLLMの実用化に向けた重要な一歩とされている。

関連リンク

中国科学院提出新型时间序列预测框架LVICL,实现高效精准预测 | 人気の記事 | HyperAI超神経