Kleine Änderungen machen große Unterschiede: Verbesserung der Mehrfachantwortselektion in Dialogsystemen durch feingranulare kontrastive Lernverfahren

Die Aufgabe der retrieve-basierten Dialogantwortselektion besteht darin, aus einem Kandidatenpool eine angemessene Antwort zu finden, gegeben einen mehrfachen Dialogkontext. Methoden auf der Basis von vorge训练的语言模型(PLMs)在这一任务上已经取得了显著的改进。序列表示在学习对话上下文和响应之间的匹配度中起着关键作用。然而,我们观察到,共享相同上下文的不同上下文-响应对在通过PLMs计算的序列表示中总是具有更大的相似性,这使得区分正向响应和负向响应变得困难。基于这一点,我们提出了一种新的细粒度对比(FGC)学习方法,用于基于PLMs的响应选择任务。这种FGC学习策略有助于PLMs生成每个对话的更可区分的细粒度匹配表示,并进一步提高选择正向响应的预测能力。在两个基准数据集上的实证研究证明,所提出的FGC学习方法可以普遍且显著地提升现有基于PLM的匹配模型的性能。请注意,上述翻译中的“vorge训练的语言模型”是错误的。正确的翻译应该是:Die Aufgabe der retrieve-basierten Dialogantwortselektion besteht darin, aus einem Kandidatenpool eine angemessene Antwort zu finden, gegeben einen mehrfachen Dialogkontext. Methoden auf der Basis von vorgefertigten Sprachmodellen (PLMs) haben bei dieser Aufgabe erhebliche Verbesserungen erzielt. Die Sequenzrepräsentation spielt eine Schlüsselrolle bei der Lernung des Übereinstimmungsgrades zwischen dem Dialogkontext und der Antwort. Dennoch beobachten wir, dass verschiedene Kontext-Antwort-Paare, die den gleichen Kontext teilen, in den durch PLMs berechneten Sequenzrepräsentationen stets eine größere Ähnlichkeit aufweisen, was es schwierig macht, positive Antworten von negativen zu unterscheiden. Aus diesem Grund schlagen wir eine neuartige feingranulare kontrastive (FGC) Lernmethode für die Aufgabe der Antwortselektion basierend auf PLMs vor. Diese FGC-Lernstrategie hilft PLMs dabei, feingranulare und besser unterscheidbare Matching-Repräsentationen jedes Dialogs zu generieren und somit die Vorhersagegenauigkeit bei der Auswahl positiver Antworten weiter zu verbessern. Empirische Studien anhand zweier Benchmark-Datensätze zeigen, dass die vorgeschlagene FGC-Lernmethode im Allgemeinen und signifikant die Leistung bestehender PLM-basierter Matching-Modelle steigert.