
驚くべき展開として、大規模言語モデル(LLM)とプロンプトベースのヒューリスティック手法が急速に発展し、多数の古典的な自然言語処理(NLP)問題に対する少量学習ソリューションを提供する強力な既製品アプローチとなっています。しかし、初期の有望な結果にもかかわらず、これらのLLMを基盤とする少量学習手法は、名詞認識(NER)において最先端の方法から大きく遅れを取っています。現行のNER手法には、構造的理解による表現学習や標準ラベル付きコーパスでの微調整が含まれています。本論文では、PromptNERという新しい最先端アルゴリズムを提案します。これは少量学習とクロスドメインNER向けの手法です。新たなNERタスクに対応するためには、PromptNERは標準的な少量学習例に加えてエンティティ定義のセットが必要となります。文が与えられた場合、PromptNERは大規模言語モデル(LLM)に対して潜在的なエンティティリストとその説明を生成するよう指示します。これらの説明は提供されたエンティティタイプ定義との適合性を正当化します。驚くべきことに、PromptNERは少量学習NERで最先端の性能を達成し、ConLLデータセットではF1スコアで4%(絶対値)、GENIAデータセットでは9%(絶対値)、FewNERDデータセットでは4%(絶対値)の改善を示しています。また、PromptNERはクロスドメインNERでも最先端を推進しており、これまでの手法(少量学習設定に限定されないものを含む)よりも優れた性能を発揮し、5つのCrossNERターゲットドメイン中の3つで新しい記録を樹立しました。利用可能なデータ量の2%未満しか使用していないにもかかわらず、平均F1スコアで3%の向上を達成しています。