HyperAIHyperAI

Command Palette

Search for a command to run...

Stabilisierung der Label-Zuweisung für die Sprachtrennung durch selbstüberwachtes Vortrainieren

Sung-Feng Huang Shun-Po Chuang Da-Rong Liu Yi-Chen Chen Gene-Ping Yang Hung-yi Lee

Zusammenfassung

Die Sprachtrennung ist bereits gut entwickelt, wobei insbesondere der sehr erfolgreiche Ansatz des Permutation-Invariant Training (PIT) hervorzuheben ist. Dennoch stellt das häufige Umschalten der Label-Zuweisung während des PIT-Trainings ein Problem dar, wenn eine schnellere Konvergenzgeschwindigkeit und eine höhere erreichbare Leistung angestrebt werden. In diesem Artikel schlagen wir vor, eine selbstüberwachte Vortraining-Phase durchzuführen, um die Label-Zuweisung beim Training von Sprachtrennmodellen zu stabilisieren. Experimente mit mehreren Arten selbstüberwachter Ansätze, mehreren typischen Sprachtrennmodellen und zwei unterschiedlichen Datensätzen zeigten, dass bei geeigneter Auswahl eines selbstüberwachten Ansatzes erhebliche Verbesserungen erzielt werden können.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp