Ausnutzung von BERT für end-to-end aspektbasierte Sentimentanalyse

In diesem Paper untersuchen wir die Modellierungsleistung kontextualisierter Embeddings aus vortrainierten Sprachmodellen, beispielsweise BERT, im Kontext der E2E-ABSA-Aufgabe. Insbesondere entwickeln wir eine Reihe einfacher, aber aufschlussreicher neuronaler Baselines zur Behandlung der E2E-ABSA. Die experimentellen Ergebnisse zeigen, dass unsere BERT-basierte Architektur bereits mit einer einfachen linearen Klassifikationsschicht die Leistung von State-of-the-Art-Verfahren übertrifft. Zudem standardisieren wir die vergleichende Studie durch die konsistente Nutzung einer Hold-out-Validierungsdatenmenge zur Modellauswahl, was von früheren Arbeiten weitgehend vernachlässigt wurde. Daher kann unsere Arbeit als BERT-basierter Benchmark für die E2E-ABSA dienen.