Neuronale Architekturen für die Erkennung benannter Entitäten

Zustandsder Kunst-Entitätserkennungssysteme basieren stark auf manuell erstellten Merkmalen und domänenspezifischem Wissen, um effektiv aus den verfügbaren kleinen, überwachten Trainingskorpora zu lernen. In dieser Arbeit stellen wir zwei neue neuronale Architekturen vor: die eine basiert auf bidirektionalen LSTMs (Long Short-Term Memory) und bedingten Zufallsfeldern, während die andere Segmente mithilfe eines auf Shift-Reduce-Parsern inspirierten, transaktionsbasierten Ansatzes konstruiert und beschriftet. Unsere Modelle nutzen zwei Informationsquellen über Wörter: zeichenbasierte Wortrepräsentationen, die aus dem überwachten Korpus gelernt wurden, und unüberwachte Wortrepräsentationen, die aus nicht annotierten Korpora gelernt wurden. Unsere Modelle erzielen den aktuellen Stand der Technik in der Entitätserkennung (NER) in vier Sprachen, ohne auf sprachspezifisches Wissen oder Ressourcen wie Verzeichnisse (gazetteers) zurückzugreifen.