HyperAIHyperAI
vor 11 Tagen

Zu einer treuen neuronalen Tabellen-zu-Text-Generierung mit inhaltlicher Übereinstimmungsbeschränkung

Zhenyi Wang, Xiaoyang Wang, Bang An, Dong Yu, Changyou Chen
Zu einer treuen neuronalen Tabellen-zu-Text-Generierung mit inhaltlicher Übereinstimmungsbeschränkung
Abstract

Die Textgenerierung aus einer Wissensbasis zielt darauf ab, Wissenstripel in natürliche Sprachbeschreibungen zu übersetzen. Die meisten bestehenden Ansätze ignorieren die Treue zwischen einer generierten Textbeschreibung und der ursprünglichen Tabelle, was dazu führt, dass die generierten Informationen über den Inhalt der Tabelle hinausgehen. In diesem Artikel stellen wir erstmals einen neuen, auf Transformer basierenden Generierungsrahmen vor, um dieses Ziel zu erreichen. Die zentralen Techniken unseres Ansatzes zur Sicherstellung der Treue umfassen eine neue Table-Text-Optimal-Transport-Matching-Verlustfunktion sowie einen auf dem Transformer-Modell basierenden Table-Text-Embedding-Ähnlichkeitsverlust. Darüber hinaus schlagen wir zur Bewertung der Treue ein neues automatisches Metrikverfahren vor, das speziell für das Problem der Tabellen-zu-Text-Generierung entwickelt wurde. In unseren Experimenten führen wir eine detaillierte Analyse jedes Modulkomponenten durch. Automatisierte und menschliche Evaluierungen zeigen, dass unser Rahmenwerk die derzeit besten Ansätze signifikant und deutlich übertrifft.

Zu einer treuen neuronalen Tabellen-zu-Text-Generierung mit inhaltlicher Übereinstimmungsbeschränkung | Neueste Forschungsarbeiten | HyperAI