Zur Erkennung subjektiver Verzerrungen mittels kontextualisierter Wortembeddings

Die Erkennung subjektiver Verzerrungen ist für Anwendungen wie die Erkennung von Propaganda, die Inhaltsempfehlung, die Sentimentanalyse sowie die Neutralisierung von Bias von entscheidender Bedeutung. Solche Verzerrungen werden in der natürlichen Sprache durch aufwühlende Wörter und Ausdrücke, Zweifel an Tatsachen und die Voraussetzung der Wahrheit eingeführt. In dieser Arbeit führen wir umfassende Experimente zur Erkennung subjektiver Verzerrungen mit BERT-basierten Modellen am Wiki Neutrality Corpus (WNC) durch. Der Datensatz umfasst 360.000 gelabelte Instanzen aus Wikipedia-Editierungen, bei denen verschiedene Formen von Bias entfernt wurden. Darüber hinaus schlagen wir BERT-basierte Ensembles vor, die die derzeit besten Methoden wie $BERT_{large}$ um einen F1-Score von 5,6 übertrumpfen.