HyperAIHyperAI

Command Palette

Search for a command to run...

Long Short-Term Memory für die japanische Worttrennung

Yoshiaki Kitagawa Mamoru Komachi

Zusammenfassung

Diese Studie stellt einen Ansatz mit Long Short-Term Memory (LSTM)-Neuronennetzen für die japanische Worttrennung (JWS) vor. Frühere Studien zur chinesischen Worttrennung (CWS) hatten Erfolg mit rekurrenten Neuronennetzen wie LSTM und Gated Recurrent Units (GRU). Im Gegensatz zum Chinesischen enthält Japanisch jedoch mehrere Schriftarten, wie Hiragana, Katakana und Kanji, die orthographische Variationen verursachen und die Schwierigkeit der Worttrennung erhöhen. Zudem ist es bei JWS-Aufgaben wichtig, den globalen Kontext zu berücksichtigen, während traditionelle JWS-Methoden auf lokalen Merkmalen basieren. Um dieses Problem anzugehen, schlägt diese Studie einen LSTM-basierten Ansatz für die JWS vor. Die experimentellen Ergebnisse zeigen, dass das vorgeschlagene Modell den Stand der Technik in Bezug auf verschiedene japanische Korpora erreicht.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp