HyperAIHyperAI

Command Palette

Search for a command to run...

Deconvolutionsbasierte globale Dekodierung für neuronale Maschinelle Übersetzung

Junyang Lin Xu Sun Xuancheng Ren Shuming Ma Jinsong Su Qi Su

Zusammenfassung

Ein großer Teil der sequenz-zu-sequenz (Seq2Seq)-Modelle für die neuronale maschinelle Übersetzung (NMT) verwendet Rekurrente Neuronale Netze (RNN), um die Übersetzung wortweise in einer sequenziellen Reihenfolge zu generieren. Da linguistische Studien gezeigt haben, dass Sprache nicht als lineare Wortsequenz, sondern als Sequenz komplexer Strukturen betrachtet werden sollte, sollte die Übersetzung bei jedem Schritt auf den gesamten Kontext der Zielsequenz konditioniert sein. Um dieses Problem anzugehen, schlagen wir ein neues NMT-Modell vor, das die Sequenz unter der Anleitung ihrer strukturellen Vorhersage des Kontexts der Zielsequenz decodiert. Unser Modell generiert die Übersetzung basierend auf der strukturellen Vorhersage des Zielkontexts, sodass die Übersetzung von der Bindung an eine sequenzielle Reihenfolge befreit wird. Experimentelle Ergebnisse zeigen, dass unser Modell im Vergleich zu den Stand-of-the-Art-Methoden wettbewerbsfähiger ist und die Analyse verdeutlicht, dass unser Modell auch robust bei der Übersetzung von Sätzen unterschiedlicher Längen ist und durch die Anweisungen aus dem Zielkontext zur Decodierung Wiederholungen reduziert.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Deconvolutionsbasierte globale Dekodierung für neuronale Maschinelle Übersetzung | Paper | HyperAI