Die Kombination von neuronalen Netzen und log-linearen Modellen zur Verbesserung der Relationsextraktion

In den letzten zehn Jahren hat sich die traditionelle feature-basierte Methode bei der Ausnutzung diskreter Strukturen wie Wörter oder lexikalische Muster zur Extraktion von Relationen aus Texten erfolgreich bewährt. Kürzlich haben Faltungsneuronale Netze (Convolutional Neural Networks) und rekurrente Neuronale Netze (Recurrent Neural Networks) sehr effektive Mechanismen bereitgestellt, um die verborgenen Strukturen innerhalb von Sätzen durch kontinuierliche Darstellungen zu erfassen, was die Leistungsfähigkeit der Relationsextraktion erheblich verbessert hat. Der Vorteil von Faltungsneuronalen Netzen liegt in ihrer Fähigkeit, aufeinanderfolgende k-Gramme in den Sätzen zu verallgemeinern, während rekurrente Neuronale Netze effektiv sind, um lange Bereiche des Satzkontexts zu kodieren. In dieser Arbeit wird vorgeschlagen, die traditionelle feature-basierte Methode mit Faltungs- und rekurrenten neuronalen Netzen zu kombinieren, um gleichzeitig von ihren Vorteilen zu profitieren. Unsere systematische Bewertung verschiedener Netzarchitekturen und Kombinationsmethoden zeigt die Effektivität dieses Ansatzes und führt zu einem Stand der Technik (state-of-the-art) auf den Datensätzen ACE 2005 und SemEval.