HyperAIHyperAI

Command Palette

Search for a command to run...

TUNet: Ein Block-Online-Bandbreiten-Erweiterungsmodell basierend auf Transformers und selbstüberwachtem Vortraining

Viet-Anh Nguyen Anh H. T. Nguyen Andy W. H. Khong

Zusammenfassung

Wir stellen eine block-orientierte Variante des zeitlichen feature-weisen linearen Modellierungsmodells (TFiLM) vor, um die Bandbreite zu erweitern. Die vorgeschlagene Architektur vereinfacht das UNet-Backbone des TFiLMs, um die Inferenzzeit zu reduzieren, und verwendet einen effizienten Transformer im Flaschenhalsbereich, um Leistungsabfall zu mildern. Zudem nutzen wir selbstüberwachtes Vortraining und Datenverstärkung, um die Qualität der bandbreiten-erweiterten Signale zu verbessern und die Sensibilität gegenüber Downsampling-Methoden zu verringern. Experimentelle Ergebnisse am VCTK-Datensatz zeigen, dass die vorgeschlagene Methode sowohl in intrusiven als auch in nicht-intrusiven Metriken mehrere aktuelle Baseline-Methoden übertrifft. Das Vortraining und die Filterverstärkung tragen außerdem dazu bei, die gesamte Leistung zu stabilisieren und zu verbessern.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp