
要約
エンドツーエンド型音声言語理解(SLU)システムは従来のパイプライン型システムに比べて多くの利点を持つが、エンドツーエンドシステムを訓練するためのドメイン固有の音声データを収集することは費用がかかり、時間もかかる。このことから次の問いが生じる:限られたデータ量でエンドツーエンド型SLUをどのように訓練すればよいか。多くの研究者が、高リソースな音声認識タスクでモデルの一部を事前学習することで、関連する他のデータリソースを活用するアプローチを検討している。本論文では、標準的でない学習アルゴリズムであるReptileを用いて、SLUモデルの一般化性能を向上させることを提案する。Reptileは当初、モデルに依存しないメタ学習(model-agnostic meta learning)のために提案されたが、我々はこの手法がターゲットタスクを直接学習する際にも有効であり、従来の勾配降下法よりも優れた一般化性能をもたらす可能性があると主張する。本研究では、Reptileをエンドツーエンド型音声意図分類タスクに適用した。異なる言語およびドメインの4つのデータセットにおける実験結果から、Reptileを単独で用いた場合、および事前学習と併用した場合の両方において、意図予測の精度が向上することが確認された。