
要約
事前学習済み言語モデルの知識をダウンストリームタスクのために探索するためにプロンプトを使用することは、現在活発な研究テーマとなっています。現在のプロンプト調整手法は、クローズ形式のフレーズを追加し、すべてのラベルを固定長の表現にマッピングすることで、ダウンストリームタスクをマスク言語モデリング問題に変換することが主であり、これは単純なラベル空間を持つタスクに対して効果的であることが証明されています。しかし、複雑なラベル空間を持つ関係分類に適用すると、従来のプロンプト調整手法は堅固なプロンプト制約により任意の長さを持つラベル表現に対処するのに苦労することがあります。この点から着想を得て、生成モデルの事前学習におけるテキスト補完タスクが柔軟に欠落部分を予測できるように設計されていることを踏まえ、我々は新たな生成型プロンプト調整手法を提案します。この手法では、関係分類を補完問題として再定式化し、当方針が現行のプロンプトベースアプローチの制約から解放され、エンティティと関係タイプの豊富な意味論を完全に活用できるようにしています。さらに、推論時に効果的かつ効率的に関係を生成および整列するためにエンティティガイドデコーディングと差別的関係スコアリングを設計しました。完全監督設定および低リソース設定での広範な実験結果は、当方針の有効性を示しています。