Explizite kontextuelle Semantik für die Textverstehensanalyse

Wer was wem getan hat, ist ein zentrales Thema im Bereich der natürlichen Sprachverarbeitung und stellt genau das Ziel der semantischen Rollenmarkierung (SRL) dar. Trotz vieler gemeinsamer Verarbeitungsmerkmale und sogar Aufgabenziele ist es überraschend, dass diese beiden verwandten Aufgaben bisher nie formell in einem gemeinsamen Ansatz betrachtet wurden. Daher unternimmt dieser Artikel erstmals den Versuch, die Textverständnis- und Inferenzfähigkeiten durch die spezifische Kennzeichnung verbaler Prädikate und ihrer entsprechenden semantischen Rollen zu verbessern. Im Kontext tief lernender Modelle werden unsere Einbettungen durch explizite kontextuelle semantische Rollenlabels für eine feingranulare Semantik optimiert. Wir zeigen, dass diese hervorstechenden Labels leicht in bestehende Modelle integriert werden können und die Leistung von tief lernenden Modellen bei anspruchsvollen Textverständnistests erheblich steigern. Umfangreiche Experimente auf Standarddatensätzen für maschinelles Leseverständnis und Inferenz bestätigen, dass das vorgeschlagene semantische Lernen unser System über starke Baseline-Modelle hinausbringt, die bereits durch gut vortrainierte Sprachmodelle aus den neuesten Forschungsergebnissen verbessert wurden.