
要約
対話のニューラルモデルは、言語の一般的な潜在表現に依存しています。本論文では、言語の複数の表現を異なる粒度レベルで明示的に学習する新しい訓練手法を提案します。多粒度訓練アルゴリズムは、ネガティブ候補応答のサンプリングメカニズムを変更することで、学習された潜在表現の粒度を制御します。MultiWOZデータセットとUbuntu対話コーパスを使用した次の発話検索タスクにおいて、性能向上が確認されました。分析結果は、異なる粒度の表現が実際に学習されていることを明確に示し、多粒度訓練が下流タスクへの転移を促進することを実証しています。