13日前
エンタイルメントおよびディスコース関係の記憶学習によるパーソナ一貫性のある対話の実現
Ruijun Chen, Jin Wang, Liang-Chih Yu, Xuejie Zhang

要約
対話システムにおいて、エンゲージメントと一貫性の維持は特に重要である。従来の研究では、洗練されたネットワーク構造を用いて対話相手の人物像(ペルソナ)を意図的に学習することで、対話システムの性能向上が図られている。しかし、このアプローチには、より多くのアノテーション付きの個人特有のコーパスが必要となるという課題がある。さらに、これらのモデルは通常、応答の次発話予測を行うが、会話全体におけるディスコースの一貫性には十分に配慮していない。この問題を解決するため、本研究では、ペルソナ一貫性を保つ対話タスクにおいて、含意関係(entailment)およびディスコース関係を記憶する能力を学習する手法を提案する。自然言語推論データセットに含まれる含意テキストペアを活用し、前提から仮説を生成するタスクを通じて、潜在的な含意関係を外部記憶として学習する。さらに、対話におけるディスコース情報を処理する内部記憶(同じアーキテクチャを持つ)を導入する。この2つの記憶空間に直交制約を課すことで、潜在的な含意関係が対話に依存しない状態を維持できる。両記憶が協調して含意およびディスコース表現を獲得することにより、一貫性と整合性の両方に対するより深い理解が可能となる。本手法の有効性は、2つの大規模公開データセット(PersonaChatおよびDSTC7-AVSD)を用いた実験によって示された。自動評価および人間評価の両方において、提案モデルは複数の強力なベースラインモデルを上回り、ペルソナの一貫性および応答の整合性の両面で優れた性能を発揮した。本研究のソースコードは、https://github.com/Chenrj233/LMEDR にて公開されている。