Syntaktische Multi-View-Lernmethode für Open Information Extraction

Open Information Extraction (OpenIE) zielt darauf ab, relationale Tupel aus Sätzen im offenen Domänenbereich zu extrahieren. Traditionelle, regelbasierte oder statistische Modelle wurden auf der Grundlage syntaktischer Strukturen von Sätzen entwickelt, die durch syntaktische Parser identifiziert werden. Dennoch werden in bisherigen neuronalen OpenIE-Modellen die nützlichen syntaktischen Informationen untergenutzt. In diesem Paper modellieren wir sowohl Constituency- als auch Dependency-Bäume als wortbasierte Graphen und ermöglichen es neuronalen OpenIE-Modellen, aus diesen syntaktischen Strukturen zu lernen. Um die heterogenen Informationen aus beiden Graphen besser zu integrieren, setzen wir Multi-View-Lernen ein, um mehrere Beziehungen zwischen ihnen zu erfassen. Schließlich werden die nachträglich feinabgestimmten Constituency- und Dependency-Repräsentationen mit sentenziellen semantischen Repräsentationen kombiniert, um Tupel zu generieren. Experimente zeigen, dass sowohl die Constituency- und Dependency-Information als auch das Multi-View-Lernen wirksam sind.