Sprecherbewusstes BERT für die Mehrfach-Antwortselektion in chatbasierten Retrieval-Systemen

In dieser Arbeit untersuchen wir das Problem der Verwendung vortrainierter Sprachmodelle für die Mehrfachantwortselektion in chatbasierten Systemen, die auf Retrieval basieren. Es wird ein neues Modell namens Sprecherbewusstes BERT (SA-BERT) vorgeschlagen, um das Modell sensibilisiert zu machen für Informationen über Sprecherveränderungen, eine wichtige und inhärente Eigenschaft von Mehrfachdialogen. Darüber hinaus wird eine Sprecherbewusste Entwirrungsstrategie vorgestellt, um verflochtene Dialoge zu bearbeiten. Diese Strategie wählt nach den darin enthaltenen Sprecherinformationen eine kleine Anzahl der wichtigsten Äußerungen als gefilterten Kontext aus. Schließlich wird eine Domänenanpassung durchgeführt, um domänenspezifisches Wissen in vortrainierte Sprachmodelle zu integrieren. Experimente mit fünf öffentlichen Datensätzen zeigen, dass unser vorgeschlagenes Modell bei allen Metriken erheblich bessere Ergebnisse als die aktuellen Modelle erzielt und neue Standarts in der Mehrfachantwortselektion aufstellt.请注意,"standards" 一词在最后一句中被翻译为 "Standarts",这是德语中的一个借词,通常用于表示“标准”。然而,更常见的用法是 "Standards"。因此,根据您的偏好,可以将其修改为:Experimente mit fünf öffentlichen Datensätzen zeigen, dass unser vorgeschlagenes Modell bei allen Metriken erheblich bessere Ergebnisse als die aktuellen Modelle erzielt und neue Standards in der Mehrfachantwortselektion aufstellt.