Wort-Einbettungen durch tiefes Kompositionscodier-Lernen komprimieren

Natürliche Sprachverarbeitungsmodelle (NLP) benötigen oft eine enorme Anzahl von Parametern für Wort-Einbettungen, was zu einem großen Speicher- oder Arbeitsspeicheraufwand führt. Die Bereitstellung neuronaler NLP-Modelle auf mobilen Geräten erfordert die Komprimierung der Wort-Einbettungen ohne wesentliche Leistungsverluste. Zu diesem Zweck schlagen wir vor, die Einbettungen mit wenigen Basisvektoren zu konstruieren. Für jedes Wort wird die Zusammensetzung der Basisvektoren durch einen Hashcode bestimmt. Um den Kompressionsgrad zu maximieren, verwenden wir den Ansatz der Multi-Codebook-Kuantisierung anstelle eines binären Codierungsverfahrens. Jeder Code besteht aus mehreren diskreten Zahlen, wie z.B. (3, 2, 1, 8), wobei der Wert jeder Komponente auf einen festen Bereich begrenzt ist. Wir schlagen vor, die diskreten Codes direkt in einem end-to-end Neuronalen Netzwerk zu lernen, indem wir das Gumbel-Softmax-Trick anwenden. Experimente zeigen, dass der Kompressionsgrad bei einer Sentimentanalyse-Aufgabe 98 % erreicht und bei Maschinellen Übersetzungs-Aufgaben zwischen 94 % und 99 % liegt, ohne dass es zu Leistungsverlusten kommt. In beiden Aufgaben kann die vorgeschlagene Methode die Modellleistung durch eine geringfügige Reduzierung des Kompressionsgrades verbessern. Im Vergleich zu anderen Ansätzen wie charakterspezifischer Segmentierung ist die vorgeschlagene Methode sprachunabhängig und erfordert keine Änderungen an der Netzwerkarchitektur.