HyperAIHyperAI
vor 18 Tagen

Verbesserung der end-to-end Sprache-zu-Intention-Klassifikation mit Reptile

Yusheng Tian, Philip John Gorinski
Verbesserung der end-to-end Sprache-zu-Intention-Klassifikation mit Reptile
Abstract

End-to-end-Systeme für die gesprochene Sprachverstehens (Spoken Language Understanding, SLU) bieten gegenüber herkömmlichen Pipeline-Systemen zahlreiche Vorteile. Allerdings ist die Beschaffung von domain-spezifischen Sprachdaten zur Trainingszeit eines End-to-End-Systems kostspielig und zeitaufwendig. Daraus ergibt sich die zentrale Frage: Wie kann ein End-to-End-SLU-System mit begrenzten Datenmengen trainiert werden? Viele Forscher haben Ansätze erforscht, die auf der Nutzung anderer verwandter Datenressourcen basieren, typischerweise durch die Vortrainierung von Teilen des Modells auf hochressourcenreichen Spracherkennungsaufgaben. In diesem Paper schlagen wir vor, die Generalisierungsfähigkeit von SLU-Modellen mit einem nicht-standardmäßigen Lernalgorithmus, Reptile, zu verbessern. Obwohl Reptile ursprünglich für modellunabhängiges Meta-Lernen vorgeschlagen wurde, argumentieren wir, dass es auch direkt zur Lernung einer Zielaufgabe eingesetzt werden kann und dabei eine bessere Generalisierung als herkömmliches Gradientenabstiegsverfahren erzielt. In dieser Arbeit wenden wir Reptile der Aufgabe der End-to-End-Sprechabsichtsklassifikation zu. Experimente an vier Datensätzen unterschiedlicher Sprachen und Domänen zeigen eine Steigerung der Genauigkeit der Absichtsvorhersage – sowohl wenn Reptile allein verwendet wird als auch in Kombination mit Vortrainierung.