HyperAIHyperAI
vor 2 Monaten

TUNet: Ein Block-Online-Bandbreiten-Erweiterungsmodell basierend auf Transformers und selbstüberwachtem Vortraining

Nguyen, Viet-Anh ; Nguyen, Anh H. T. ; Khong, Andy W. H.
TUNet: Ein Block-Online-Bandbreiten-Erweiterungsmodell basierend auf Transformers und selbstüberwachtem Vortraining
Abstract

Wir stellen eine block-orientierte Variante des zeitlichen feature-weisen linearen Modellierungsmodells (TFiLM) vor, um die Bandbreite zu erweitern. Die vorgeschlagene Architektur vereinfacht das UNet-Backbone des TFiLMs, um die Inferenzzeit zu reduzieren, und verwendet einen effizienten Transformer im Flaschenhalsbereich, um Leistungsabfall zu mildern. Zudem nutzen wir selbstüberwachtes Vortraining und Datenverstärkung, um die Qualität der bandbreiten-erweiterten Signale zu verbessern und die Sensibilität gegenüber Downsampling-Methoden zu verringern. Experimentelle Ergebnisse am VCTK-Datensatz zeigen, dass die vorgeschlagene Methode sowohl in intrusiven als auch in nicht-intrusiven Metriken mehrere aktuelle Baseline-Methoden übertrifft. Das Vortraining und die Filterverstärkung tragen außerdem dazu bei, die gesamte Leistung zu stabilisieren und zu verbessern.

TUNet: Ein Block-Online-Bandbreiten-Erweiterungsmodell basierend auf Transformers und selbstüberwachtem Vortraining | Neueste Forschungsarbeiten | HyperAI