HyperAIHyperAI

Command Palette

Search for a command to run...

Kontinuierliche Sprachtrennung mit Conformer

Sanyuan Chen Yu Wu Zhuo Chen Jian Wu Jinyu Li Takuya Yoshioka Chengyi Wang Shujie Liu Ming Zhou

Zusammenfassung

Die kontinuierliche Sprachtrennung spielt eine entscheidende Rolle bei komplexen sprachbasierten Aufgaben wie der Transkription von Gesprächen. Das Trennungsmodell extrahiert ein einzelnes Sprecher-Signal aus einem gemischten Sprachsignal. In diesem Artikel setzen wir Transformer und Conformer anstelle rekurrenter neuronalen Netze im Trennsystem ein, da wir der Ansicht sind, dass die Erfassung globaler Informationen mittels selbst-Attention-basierter Methoden für die Sprachtrennung von zentraler Bedeutung ist. Auf dem LibriCSS-Datensatz erreicht das Conformer-Trennungsmodell Zustand-des-Kunst-Ergebnisse: Bei der Evaluierung pro Äußerung wird eine relative Reduktion des Wortfehlerrates (WER) um 23,5 % gegenüber dem bidirektionalen LSTM (BLSTM) erzielt, während bei der kontinuierlichen Evaluierung eine Reduktion um 15,4 % erreicht wird.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Kontinuierliche Sprachtrennung mit Conformer | Paper | HyperAI