4ヶ月前
小さな変化が大きな違いをもたらす:対話システムにおける多ターン応答選択の改善を細かいコントラスティブ学習を通じて実現する
Yuntao Li; Can Xu; Huang Hu; Lei Sha; Yan Zhang; Daxin Jiang

要約
コンテキストに基づく応答選択の目的は、マルチターンのコンテキストが与えられた場合に、候補セットから適切な応答を見つけることです。事前学習言語モデル(PLMs)を用いた手法は、このタスクにおいて著しい改善をもたらしました。シーケンス表現は、対話コンテキストと応答との間のマッチング度の学習において重要な役割を果たします。しかし、異なるコンテキスト-応答ペアが同じコンテキストを共有する場合、PLMsによって計算されたシーケンス表現は常に高い類似性を持つことが観察されます。これにより、肯定的な応答と否定的な応答を区別することが難しくなります。このような問題点に着目し、我々はPLMsに基づく応答選択タスク向けに新しいFine-Grained Contrastive (FGC) 学習方法を提案します。このFGC学習戦略は、各対話の微細な粒度でのより区別可能なマッチング表現を生成するのに役立ち、さらに肯定的な応答を選択するためのより良い予測を行います。2つのベンチマークデータセットを用いた経験的調査では、提案したFGC学習方法が既存のPLMベースのマッチングモデルの性能を一般的かつ有意に向上させることを示しています。