HyperAIHyperAI
vor 15 Tagen

Sequenz-zu-Mehrsequenz-Lernen über bedingte Kettenabbildung für Gemischt-Signale

Jing Shi, Xuankai Chang, Pengcheng Guo, Shinji Watanabe, Yusuke Fujita, Jiaming Xu, Bo Xu, Lei Xie
Sequenz-zu-Mehrsequenz-Lernen über bedingte Kettenabbildung für Gemischt-Signale
Abstract

Neuronale sequenz-zu-Sequenz-Modelle sind gut etabliert für Anwendungen, die als Abbildung einer einzelnen Eingabesequenz auf eine einzelne Ausgabesequenz formuliert werden können. In dieser Arbeit konzentrieren wir uns auf ein-zu-viele-Sequenz-Übersetzungsprobleme, beispielsweise die Extraktion mehrerer sequenzieller Quellen aus einer überlagerten Sequenz. Wir erweitern das herkömmliche Sequenz-zu-Sequenz-Modell zu einem bedingten Mehr-Sequenz-Modell, das die Beziehung zwischen mehreren Ausgabesequenzen explizit mittels der probabilistischen Kettenregel modelliert. Auf Basis dieser Erweiterung kann unser Modell die Ausgabesequenzen schrittweise bedingt ableiten, wobei sowohl die Eingabedaten als auch bereits geschätzte kontextuelle Ausgabesequenzen genutzt werden. Zudem verfügt das Modell über ein einfaches und effizientes Stoppkriterium für das Ende der Übersetzung, wodurch es in der Lage ist, eine variable Anzahl von Ausgabesequenzen zu inferieren. Wir wählen Sprachdaten als primäres Testfeld, da beobachtete Sprachdaten aufgrund des Superpositionsprinzips von Schallwellen oft aus mehreren Quellen bestehen. Experimente auf mehreren unterschiedlichen Aufgaben, darunter Sprachtrennung und Mehrsprecher-Spracherkennung, zeigen, dass unsere bedingten Mehr-Sequenz-Modelle im Vergleich zu herkömmlichen nicht-bedingten Modellen konsistente Verbesserungen erzielen.

Sequenz-zu-Mehrsequenz-Lernen über bedingte Kettenabbildung für Gemischt-Signale | Neueste Forschungsarbeiten | HyperAI