HyperAIHyperAI

Command Palette

Search for a command to run...

Wissensübertragung von vortrainierten Sprachmodellen auf Cif-basierte Spracherkennersysteme mittels hierarchischer Distillation

Minglun Han Feilong Chen Jing Shi Shuang Xu Bo Xu

Zusammenfassung

Großskalige vortrainierte Sprachmodelle (PLMs) haben ein großes Potenzial bei Aufgaben des natürlichen Sprachverstehens gezeigt. Auch die Nutzung der Fähigkeiten von PLMs zur Verbesserung von Systemen für automatisierte Spracherkennung (ASR) hat sich als vielversprechende Forschungsrichtung etabliert. Allerdings können frühere Ansätze durch die starren Architekturen der PLMs und die unzureichende Ausnutzung ihres Wissens eingeschränkt sein. Um diese Probleme zu mindern, stellen wir eine hierarchische Wissensdistillation (HKD) für ASR-Modelle basierend auf dem kontinuierlichen Integrate-and-Fire (CIF)-Ansatz vor. Um Wissen von PLMs auf die ASR-Modelle zu übertragen, nutzt HKD eine cross-modale Wissensdistillation mit kontrastiver Verlustfunktion auf akustischer Ebene und eine Wissensdistillation mit Regressionsverlust auf sprachlicher Ebene. Im Vergleich zum ursprünglichen CIF-basierten Modell erreichen wir eine relative Reduktion des Fehleranteils um 15 % auf dem AISHELL-1-Datensatz und um 9 % auf dem LibriSpeech-Datensatz.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Wissensübertragung von vortrainierten Sprachmodellen auf Cif-basierte Spracherkennersysteme mittels hierarchischer Distillation | Paper | HyperAI