HyperAIHyperAI

Command Palette

Search for a command to run...

Sentence-State LSTM für Textrepräsentation

Yue Zhang; Qi Liu; Linfeng Song

Zusammenfassung

Bidirektionale LSTMs (Long Short-Term Memory) sind ein leistungsfähiges Werkzeug für die Textrepräsentation. Andererseits wurden sie aufgrund ihrer sequentiellen Natur verschiedene Einschränkungen aufgezeigt. In dieser Arbeit untersuchen wir eine alternative LSTM-Struktur zur Textkodierung, die einen parallelen Zustand für jedes Wort umfasst. Rekurrente Schritte werden verwendet, um lokal und global gleichzeitig Informationsaustausch zwischen den Wörtern durchzuführen, anstatt die sequenzielle, schrittweise Verarbeitung von Wörtern. Die Ergebnisse verschiedener Klassifikations- und Sequenzbeschriftungsbenchmarks zeigen, dass das vorgeschlagene Modell eine starke Repräsentationskraft besitzt und vergleichsweise hohe Leistungen erzielt, wenn man es mit gestapelten BiLSTM-Modellen mit ähnlicher Anzahl von Parametern vergleicht.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp