HyperAIHyperAI

Command Palette

Search for a command to run...

Few-Shot Parameter-Efficient Fine-Tuningは、In-Context Learningよりも優れており、コストも低い

Haokun Liu Derek Tam Mohammed Muqeeth Jay Mohta Tenghao Huang Mohit Bansal Colin Raffel

概要

Few-shot in-context learning(ICL)は、予め学習された言語モデルが勾配ベースの訓練を一切行わずに、入力に少数の訓練例を含めることで、これまでに見たことのないタスクを実行可能にする手法である。しかしながら、ICLは予測を行うたびにすべての訓練例を処理する必要があるため、計算コスト、メモリ使用量、ストレージ消費量が著しく高くなるという課題を抱えている。これに対して、パラメータ効率的な微調整(PEFT)——例えばアダプタモジュール、プロンプトチューニング、スパース更新法など——は、新しいタスクを実行可能にするために、少数のパラメータのみを学習する代替的なアプローチを提供している。本論文では、Few-shot ICLとPEFTを厳密に比較し、後者がより高い精度を達成するとともに、計算コストを大幅に低減できることを実証している。さらに、学習可能なベクトルによって活性化をスケーリングする新しいPEFT手法(IA)3^33を提案する。この手法は、非常に少量の新たなパラメータしか追加しないにもかかわらず、優れた性能を達成している。また、T0モデルに基づくシンプルなアプローチであるT-Fewを提案し、タスク固有のチューニングや修正なしに新たなタスクに適用可能であることを示している。RAFTベンチマークを用いた実験により、T-Fewがまったく新しいタスクに対しても有効であることを検証し、初めて人間を上回る性能を達成し、最先端の手法を6%の絶対差で上回った。本研究で用いたすべてのコードは、公開されている。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています