HyperAIHyperAI

Command Palette

Search for a command to run...

SpeechPrompt v2: Prompt Tuning für Spracherkennungsaufgaben

Kai-Wei Chang Yu-Kai Wang Hua Shen Iu-thing Kang Wei-Cheng Tseng Shang-Wen Li Hung-yi Lee

Zusammenfassung

Prompt Tuning ist eine Technologie, die eine kleine Menge an Parametern anpasst, um einen vortrainierten Sprachmodell (LM) direkt zur Generierung von Ausgaben für nachgeschaltete Aufgaben zu steuern. In jüngster Zeit hat sich das Prompt Tuning sowohl im Bereich der natürlichen Sprachverarbeitung (NLP) als auch in der Sprachverarbeitung durch hohe Speicher- und Rechen-Effizienz ausgezeichnet. Diese Vorteile machen es zu einem vielversprechenden Ansatz, vortrainierte Sprachmodelle einheitlich für eine Vielzahl von Aufgaben bereitzustellen. Für die Sprachverarbeitung zeigt SpeechPrompt eine hohe Parameter-Effizienz und konkurrenzfähige Leistung bei mehreren Sprachklassifizierungsaufgaben. Ob jedoch SpeechPrompt in der Lage ist, eine große Anzahl von Aufgaben zu unterstützen, bleibt bisher unklar. In dieser Arbeit präsentieren wir SpeechPrompt v2, einen Prompt-Tuning-Framework, der eine breite Palette von Sprachklassifizierungsaufgaben bewältigen kann, einschließlich mehrerer Sprachen und prosodischer Aufgaben. Die Experimente zeigen, dass SpeechPrompt v2 eine Leistung erreicht, die mit vorherigen Arbeiten vergleichbar ist, und zwar mit weniger als 0,15 Mio. trainierbaren Parametern in einem einheitlichen Rahmen.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp