パラメータ効率の高い微調整パラメータ効率の高い微調整

Parameter Efficient Fine-Tuning (PEFT) は、特定の下流タスクで事前トレーニングされた言語モデルのパフォーマンスを向上させるために自然言語処理 (NLP) で使用される手法です。これには、事前トレーニングされたモデルのパラメーターを再利用し、より小さなデータセットで微調整することが含まれます。これにより、モデル全体を最初からトレーニングする場合と比較して、コンピューティング リソースと時間が節約されます。 PEFT は、事前トレーニングされたモデルの特定の層をフリーズし、下流のタスクに固有の最後の数層のみを微調整することで、この効率を実現します。このようにして、計算オーバーヘッドとラベル付きサンプルの数を減らして、モデルを新しいタスクに適応させることができます。 PEFT は比較的新しい概念ですが、モデルの最後の層を更新することは、転移学習の導入以来、コンピューター ビジョンの分野で実践されてきました。

清華大学コンピューターサイエンス学部のSun Maosong氏のチームは、2024年に関連する研究結果を提案した。大規模な事前トレーニング済み言語モデルの効率的なパラメータ微調整』の改訂論文が『Nature Machine Intelligence』(Nature Machine Intelligence)に掲載されました。この研究結果は、デルタチューニング問題を定義および説明し、統一されたフレームワークを通じて以前の研究をレビューします。デルタ チューニング方法は、インクリメンタル (加算ベース)、仕様 (仕様ベース)、および再パラメータ化 (再パラメータ化ベース) の 3 つのグループに分類できます。研究チームはまた、その後の構造やアルゴリズムの設計を導くための最適化と最適制御という2つの観点から理論的枠組みを提案し、100を超えるNLPタスクについて包括的な実験比較とパフォーマンス分析を実施した。