HyperAIHyperAI

Command Palette

Search for a command to run...

Wort-Einbettungen durch tiefes Kompositionscodier-Lernen komprimieren

Raphael Shu; Hideki Nakayama

Zusammenfassung

Natürliche Sprachverarbeitungsmodelle (NLP) benötigen oft eine enorme Anzahl von Parametern für Wort-Einbettungen, was zu einem großen Speicher- oder Arbeitsspeicheraufwand führt. Die Bereitstellung neuronaler NLP-Modelle auf mobilen Geräten erfordert die Komprimierung der Wort-Einbettungen ohne wesentliche Leistungsverluste. Zu diesem Zweck schlagen wir vor, die Einbettungen mit wenigen Basisvektoren zu konstruieren. Für jedes Wort wird die Zusammensetzung der Basisvektoren durch einen Hashcode bestimmt. Um den Kompressionsgrad zu maximieren, verwenden wir den Ansatz der Multi-Codebook-Kuantisierung anstelle eines binären Codierungsverfahrens. Jeder Code besteht aus mehreren diskreten Zahlen, wie z.B. (3, 2, 1, 8), wobei der Wert jeder Komponente auf einen festen Bereich begrenzt ist. Wir schlagen vor, die diskreten Codes direkt in einem end-to-end Neuronalen Netzwerk zu lernen, indem wir das Gumbel-Softmax-Trick anwenden. Experimente zeigen, dass der Kompressionsgrad bei einer Sentimentanalyse-Aufgabe 98 % erreicht und bei Maschinellen Übersetzungs-Aufgaben zwischen 94 % und 99 % liegt, ohne dass es zu Leistungsverlusten kommt. In beiden Aufgaben kann die vorgeschlagene Methode die Modellleistung durch eine geringfügige Reduzierung des Kompressionsgrades verbessern. Im Vergleich zu anderen Ansätzen wie charakterspezifischer Segmentierung ist die vorgeschlagene Methode sprachunabhängig und erfordert keine Änderungen an der Netzwerkarchitektur.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Wort-Einbettungen durch tiefes Kompositionscodier-Lernen komprimieren | Paper | HyperAI