Command Palette
Search for a command to run...
Aufmerksamkeit und Lexikonregularisierung gestütztes LSTM für aspektbasierte Sentimentanalyse
Aufmerksamkeit und Lexikonregularisierung gestütztes LSTM für aspektbasierte Sentimentanalyse
Toni Badia Patrik Lambert Lingxian Bao
Zusammenfassung
Zusammenfassung Aufmerksamkeitsbasierte tiefgreifende Lernsysteme haben sich als der Stand der Technik für die Aspekt-orientierte Sentimentanalyse erwiesen. Allerdings fehlen end-to-end tiefe neuronale Netze an Flexibilität, da man das Netzwerk nicht leicht anpassen kann, um offensichtliche Probleme zu beheben – insbesondere dann, wenn keine zusätzlichen Trainingsdaten verfügbar sind. Beispielsweise könnte ein Modell stets „positiv“ vorhersagen, wenn das Wort „enttäuscht“ auftaucht. Gleichzeitig wird weniger betont, dass der Aufmerksamkeitsmechanismus dazu neigen kann, sich übermäßig auf bestimmte Teile eines Satzes zu konzentrieren, während andere Positionen, die entscheidende Informationen für die Bestimmung der Polarität liefern, ignoriert werden. In diesem Artikel beschreiben wir einen einfachen, jedoch wirksamen Ansatz, um lexikalische Informationen zu nutzen, um das Modell flexibler und robuster zu gestalten. Zudem untersuchen wir die Wirkung der Regularisierung von Aufmerksamkeitsvektoren, um dem Netzwerk eine breitere „Aufmerksamkeit“ über verschiedene Teile des Satzes hinweg zu ermöglichen. Die experimentellen Ergebnisse belegen die Wirksamkeit unseres Ansatzes.