Command Palette
Search for a command to run...
FLAT: Chinesische NER unter Verwendung eines Flat-Lattice Transformer
FLAT: Chinesische NER unter Verwendung eines Flat-Lattice Transformer
Xiaonan Li Hang Yan Xipeng Qiu Xuanjing Huang
Zusammenfassung
Kürzlich wurde nachgewiesen, dass die Charakter-Wort-Lattice-Struktur effektiv für die Erkennung von Namengebundenen Entitäten (Named Entity Recognition, NER) im Chinesischen ist, da sie Wortinformationen integriert. Da die Lattice-Struktur jedoch komplex und dynamisch ist, können die meisten bestehenden lattice-basierten Modelle die parallele Berechnungsfähigkeit von GPUs nicht vollständig ausnutzen und weisen in der Regel eine geringe Inferenzgeschwindigkeit auf. In diesem Paper stellen wir FLAT: Flat-LAttice Transformer für die chinesische NER vor, das die Lattice-Struktur in eine flache Struktur aus Spannen umwandelt. Jeder Span entspricht einem Zeichen oder einem latenten Wort sowie seiner Position in der ursprünglichen Lattice. Dank der Stärke des Transformers und einer sorgfältig entworfenen Positions-Codierung kann FLAT die Lattice-Informationen vollständig nutzen und verfügt über eine hervorragende Parallelisierbarkeit. Experimente an vier Datensätzen zeigen, dass FLAT sowohl in Bezug auf Leistung als auch Effizienz andere lexikonbasierte Modelle übertrifft.