HyperAIHyperAI

Command Palette

Search for a command to run...

BERTを用いた統合的な意図分類とスロット充填

Qian Chen; Zhu Zhuo; Wen Wang

概要

意図分類とスロット充填は、自然言語理解の二つの重要なタスクです。これらのタスクは、小規模な人間によるラベル付けされた学習データに依存しているため、特に稀少単語に対して汎化能力が低くなる傾向があります。最近、新しい言語表現モデルであるBERT(Bidirectional Encoder Representations from Transformers)が開発され、大規模な無ラベルコーパス上で深層双方向表現の事前学習を容易にしました。単純な微調整後、BERTは様々な自然言語処理タスクで最先端のモデルを生み出しています。しかし、自然言語理解におけるBERTの応用については十分な研究が行われてきませんでした。本研究では、BERTに基づく統合的な意図分類とスロット充填モデルを提案します。実験結果は、提案したモデルが注意機構に基づく再帰型ニューラルネットワークモデルやスロットゲートモデルと比較して、意図分類精度、スロット充填F1値、文レベルの意味フレーム精度において有意な改善を達成していることを示しています。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています