HyperAIHyperAI

Command Palette

Search for a command to run...

FLAT: Chinesische NER unter Verwendung eines Flat-Lattice Transformer

Xiaonan Li Hang Yan Xipeng Qiu Xuanjing Huang

Zusammenfassung

Kürzlich wurde nachgewiesen, dass die Charakter-Wort-Lattice-Struktur effektiv für die Erkennung von Namengebundenen Entitäten (Named Entity Recognition, NER) im Chinesischen ist, da sie Wortinformationen integriert. Da die Lattice-Struktur jedoch komplex und dynamisch ist, können die meisten bestehenden lattice-basierten Modelle die parallele Berechnungsfähigkeit von GPUs nicht vollständig ausnutzen und weisen in der Regel eine geringe Inferenzgeschwindigkeit auf. In diesem Paper stellen wir FLAT: Flat-LAttice Transformer für die chinesische NER vor, das die Lattice-Struktur in eine flache Struktur aus Spannen umwandelt. Jeder Span entspricht einem Zeichen oder einem latenten Wort sowie seiner Position in der ursprünglichen Lattice. Dank der Stärke des Transformers und einer sorgfältig entworfenen Positions-Codierung kann FLAT die Lattice-Informationen vollständig nutzen und verfügt über eine hervorragende Parallelisierbarkeit. Experimente an vier Datensätzen zeigen, dass FLAT sowohl in Bezug auf Leistung als auch Effizienz andere lexikonbasierte Modelle übertrifft.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
FLAT: Chinesische NER unter Verwendung eines Flat-Lattice Transformer | Paper | HyperAI