Librispeech-Transducer-Modell mit interner Sprachmodell-Vorrichtungskorrektur

Wir präsentieren unser Transducer-Modell auf der Librispeech-Datenbank. Wir untersuchen Varianten, bei denen ein externes Sprachmodell (LM) mittels Shallow Fusion integriert und ein geschätztes internes LM subtrahiert wird. Dies wird durch eine bayessche Interpretation gerechtfertigt, bei der das Prior des Transducer-Modells durch das geschätzte interne LM gegeben ist. Die Subtraktion des internen LM führt zu einer Verbesserung um über 14 % im relativen Sinne gegenüber der herkömmlichen Shallow Fusion. Unser Transducer verfügt über eine separate Wahrscheinlichkeitsverteilung für die Nicht-Blank-Label, was eine einfachere Kombination mit dem externen LM sowie eine einfachere Schätzung des internen LM ermöglicht. Zudem achten wir darauf, die End-of-Sentence-(EOS)-Wahrscheinlichkeit des externen LM in die letzte Blank-Wahrscheinlichkeit einzubeziehen, was die Leistung weiter verbessert. Alle unseren Quellcodes und Konfigurationen sind veröffentlicht.