HyperAIHyperAI

Command Palette

Search for a command to run...

微分可能プロンプトは、事前学習された言語モデルをより優れたFew-shotラーナーに改善する

Ningyu Zhang Luoqiu Li Xiang Chen Shumin Deng Zhen Bi Chuanqi Tan Fei Huang Huajun Chen

概要

大規模な事前学習済み言語モデルは、少しだけの例(few-shot)で学習可能な能力を示すことで、自然言語処理分野において顕著な貢献を果たしている。しかし、その効果は主にモデルパラメータのスケーリングおよびプロンプト設計に依存しており、多くの実世界の応用における導入を妨げている。本研究では、小規模な言語モデルをプロンプト設計なしに、より優れた少しだけの例での学習者に変換できる、新たなプラグイン可能で拡張性が高く効率的なアプローチ「DifferentiAble pRompT(DART)」を提案する。このアプローチの基本的な原理は、潜在的な自然言語処理タスクを事前学習済み言語モデルのタスクとして再定式化し、バックプロパゲーションを用いてプロンプトテンプレートおよびターゲットラベルを微分可能に最適化することにある。さらに、提案手法は以下の点で優れている:(i)任意の事前学習済み言語モデルに容易に統合可能;(ii)広範な分類タスクへ拡張可能。標準的なNLPタスクに対する包括的な評価により、本手法が優れた少しだけの例での性能を達成することが示された。コードは以下のGitHubリポジトリで公開されている:https://github.com/zjunlp/DART


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
微分可能プロンプトは、事前学習された言語モデルをより優れたFew-shotラーナーに改善する | 記事 | HyperAI超神経