HyperAIHyperAI
vor 2 Monaten

Die Nutzung von multi-granularen Sentiment-Lexikon-Informationen für neuronale Sequenzmodelle

Yan Zeng; Yangyang Lan; Yazhou Hao; Chen Li; Qinhua Zheng
Die Nutzung von multi-granularen Sentiment-Lexikon-Informationen für neuronale Sequenzmodelle
Abstract

Neuronale Sequenzmodelle haben bei der Satz-Level-Sentimentklassifizierung große Erfolge erzielt. Allerdings sind einige Modelle außergewöhnlich komplex oder basieren auf teuren Merkmalen. Andere Modelle erkennen zwar den Wert vorhandener linguistischer Ressourcen, nutzen diese aber unzureichend. In dieser Arbeit wird eine neue und allgemeine Methode vorgeschlagen, um Lexikoninformationen zu integrieren, einschließlich Sentiment-Lexika (+/-), Verneinungswörter und Intensivierer. Die Wörter werden mit feingranularen und grobgranularen Labels annotiert. Das vorgeschlagene Verfahren kodiert zunächst die feingranularen Labels in Sentiment-Embeddings und fügt diese dem Word-Embedding hinzu. Anschließend werden die grobgranularen Labels verwendet, um den Aufmerksamkeitsmechanismus zu verstärken und somit den Sentiment-bezogenen Wörtern ein größeres Gewicht zu geben. Experimentelle Ergebnisse zeigen, dass unsere Methode die Klassifikationsgenauigkeit von neuronalen Sequenzmodellen sowohl im SST-5- als auch im MR-Datensatz verbessern kann. Insbesondere kann das erweiterte Bi-LSTM-Modell sogar mit einem Tree-LSTM verglichen werden, das teure phrasenhafte Annotationen verwendet. Eine weitere Analyse ergibt, dass in den meisten Fällen das Lexikonressourcen die richtigen Annotationen liefern können. Zudem ist das vorgeschlagene Verfahren in der Lage, die Auswirkungen von unvermeidbaren falschen Annotationen zu überwinden.