HyperAIHyperAI

Command Palette

Search for a command to run...

Verbesserte semantische Repräsentationen durch baumstrukturierte Long Short-Term Memory-Netzwerke

Kai Sheng Tai Richard Socher* Christopher D. Manning

Zusammenfassung

Aufgrund ihrer überlegenen Fähigkeit, sequenzielle Informationen über die Zeit hinweg zu bewahren, haben Long Short-Term Memory (LSTM)-Netze, eine Art rekurrenter Neuronaler Netze mit einer komplexeren Recheneinheit, starke Ergebnisse bei verschiedenen sequenziellen Modellierungsaufgaben erzielt. Bislang wurde jedoch nur die lineare Kette als zugrundeliegende LSTM-Struktur untersucht. Die natürliche Sprache zeigt jedoch syntaktische Eigenschaften, die Wörter zu Phrasen kombinieren. Wir stellen den Tree-LSTM vor, eine Verallgemeinerung von LSTMs auf baumförmige Netztopologien. Tree-LSTMs übertreffen alle bestehenden Systeme und starke LSTM-Baselines bei zwei Aufgaben: der Vorhersage der semantischen Ähnlichkeit zweier Sätze (SemEval 2014, Task 1) und der Stimmungsanalyse (Stanford Sentiment Treebank).


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Verbesserte semantische Repräsentationen durch baumstrukturierte Long Short-Term Memory-Netzwerke | Paper | HyperAI