HyperAIHyperAI
vor 2 Monaten

BERT-Posttraining für die Verarbeitung von Rezensionsverstehen und aspektbasierte Stimmungsanalyse

Hu Xu; Bing Liu; Lei Shu; Philip S. Yu
BERT-Posttraining für die Verarbeitung von Rezensionsverstehen und aspektbasierte Stimmungsanalyse
Abstract

Die Fragebeantwortung spielt eine wichtige Rolle im E-Commerce, da sie potenziellen Kunden ermöglicht, entscheidende Informationen über Produkte oder Dienstleistungen aktiv zu suchen, um ihre Kaufentscheidungen zu treffen. Inspiriert durch den jüngsten Erfolg der maschinellen Leseverständnis (Machine Reading Comprehension, MRC) bei formellen Dokumenten untersucht dieser Artikel das Potenzial, Kundenbewertungen in eine große Wissensquelle zu verwandeln, die genutzt werden kann, um Nutzerfragen zu beantworten. Wir nennen dieses Problem Review Reading Comprehension (RRC). Nach unserem Wissen existiert bisher keine Arbeit zum Thema RRC. In dieser Arbeit bauen wir zunächst einen Datensatz für RRC auf, den wir ReviewRC nennen, basierend auf einem beliebten Benchmark für aspektbasierte Sentimentanalyse. Da ReviewRC begrenzte Trainingsbeispiele für RRC (und auch für aspektbasierte Sentimentanalyse) bietet, erforschen wir dann einen neuen Post-Training-Ansatz am weit verbreiteten Sprachmodell BERT, um die Feinabstimmung von BERT für RRC zu verbessern. Um die Allgemeingültigkeit des Ansatzes zu zeigen, wird der vorgeschlagene Post-Training auch auf andere bewertungsbezogene Aufgaben wie Aspektextraktion und Aspektsentimentklassifizierung in der aspektbasierten Sentimentanalyse angewendet. Die experimentellen Ergebnisse demonstrieren, dass der vorgeschlagene Post-Training sehr effektiv ist. Die Datensätze und der Code sind unter https://www.cs.uic.edu/~hxu/ verfügbar.

BERT-Posttraining für die Verarbeitung von Rezensionsverstehen und aspektbasierte Stimmungsanalyse | Neueste Forschungsarbeiten | HyperAI