Aufmerksamkeit und Lexikonregularisierung gestütztes LSTM für aspektbasierte Sentimentanalyse

Zusammenfassung Aufmerksamkeitsbasierte tiefgreifende Lernsysteme haben sich als der Stand der Technik für die Aspekt-orientierte Sentimentanalyse erwiesen. Allerdings fehlen end-to-end tiefe neuronale Netze an Flexibilität, da man das Netzwerk nicht leicht anpassen kann, um offensichtliche Probleme zu beheben – insbesondere dann, wenn keine zusätzlichen Trainingsdaten verfügbar sind. Beispielsweise könnte ein Modell stets „positiv“ vorhersagen, wenn das Wort „enttäuscht“ auftaucht. Gleichzeitig wird weniger betont, dass der Aufmerksamkeitsmechanismus dazu neigen kann, sich übermäßig auf bestimmte Teile eines Satzes zu konzentrieren, während andere Positionen, die entscheidende Informationen für die Bestimmung der Polarität liefern, ignoriert werden. In diesem Artikel beschreiben wir einen einfachen, jedoch wirksamen Ansatz, um lexikalische Informationen zu nutzen, um das Modell flexibler und robuster zu gestalten. Zudem untersuchen wir die Wirkung der Regularisierung von Aufmerksamkeitsvektoren, um dem Netzwerk eine breitere „Aufmerksamkeit“ über verschiedene Teile des Satzes hinweg zu ermöglichen. Die experimentellen Ergebnisse belegen die Wirksamkeit unseres Ansatzes.