Command Palette

Search for a command to run...

4ヶ月前

CAE:SLUスロットフィルリングタスクにおけるクラス不均衡を軽減するためのメカニズム

{Nguyen Le Minh Tung Le Nguyen Minh Phuong}

要約

音声言語理解(Spoken Language Understanding, SLU)は自然言語処理分野における広範な応用タスクである。事前学習済みBERTモデルの成功に伴い、自然言語理解(NLU)は意図分類(Intent Classification)とスロットフィリング(Slot Filling)という2つのタスクに分解され、顕著な性能向上が達成された。しかし、NLUにおけるクラス不均衡問題については十分に検討されておらず、特に意味解析(Semantic Parsing)データセットではこの問題が頻発する。本研究は、こうした問題の軽減に焦点を当てる。我々は、BERTをベースとした新規アーキテクチャ「JointBERT Classify Anonymous Entity(JointBERT-CAE)」を提案する。このアーキテクチャは、ATIS、Snips、ATISベトナム語版、および代表的な固有表現抽出(Named Entity Recognition, NER)データセットCoNLL2003の3つの意味解析データセットおよび1つのNERデータセットにおいて、システム性能の向上を実現した。JointBERT-CAEでは、従来のスロットフィリングタスクを、2つのサブタスクに分割するマルチタスク統合学習(joint-learning)を採用している。具体的には、シーケンスタグGINGにより「匿名エンティティ(Anonymous Entity)」を検出するタスクと、検出された匿名エンティティを分類するタスクの2つに分離する。実験結果から、すべてのデータセットにおいてBERTベースのモデルと比較して、JointBERT-CAEは顕著な性能向上を示した。さらに、シーケンスタグGING技術を活用する他の自然言語処理タスクへの広範な適用可能性も示された。

ベンチマーク

ベンチマーク方法論指標
intent-detection-on-atisJointBERT-CAE
Accuracy: 97.5
intent-detection-on-snipsJointBERT-CAE
Accuracy: 98.3
intent-detection-on-vietnamese-intentJointBERT-CAE
Intent Accuracy: 97.7
slot-filling-on-atisJointBERT-CAE
F1: 0.961
slot-filling-on-snipsJointBERT-CAE
F1: 97.0
slot-filling-on-vietnamese-intent-detectionJointBERT-CAE
Slot F1: 95.5

AI で AI を構築

アイデアからローンチまで — 無料の AI 共同コーディング、すぐに使える環境、最適価格の GPU で AI 開発を加速。

AI 共同コーディング
すぐに使える GPU
最適価格
今すぐ始める

Hyper Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
CAE:SLUスロットフィルリングタスクにおけるクラス不均衡を軽減するためのメカニズム | 論文 | HyperAI超神経