Kalibrierung der Sequenz-Wahrscheinlichkeit verbessert die bedingte Sprachgenerierung

Bedingte Sprachmodelle werden überwiegend mittels Maximum-Likelihood-Schätzung (MLE) trainiert, wodurch der Wahrscheinlichkeitsmasse seltene Zielsequenzen zugewiesen wird. Obwohl MLE-getrainierte Modelle plausiblen Sequenzen im Kontext eine hohe Wahrscheinlichkeit zuweisen, ordnen die Modellwahrscheinlichkeiten die generierten Sequenzen häufig nicht korrekt nach Qualität ein. Dies wurde empirisch bei der Beam-Search-Entschlüsselung beobachtet, bei der die Ausgabedichte mit zunehmender Beam-Größe abnimmt, sowie bei Entschlüsselungsstrategien, die Heuristiken wie Längennormalisierung und Wiederholungsblockierung nutzen. In dieser Arbeit stellen wir die Sequence Likelihood Calibration (SLiC) vor, bei der die Likelihood von vom Modell generierten Sequenzen so kalibriert wird, dass sie besser mit Referenzsequenzen im latenten Raum des Modells übereinstimmen. Mit SLiC entfallen Entschlüsselungs-Heuristiken, und die Qualität der Entschlüsselungskandidaten steigert sich signifikant unabhängig von der gewählten Entschlüsselungsmethode. Darüber hinaus zeigt SLiC keine Anzeichen von Abnahme der Effizienz mit steigender Modellgröße und bietet alternative Ansätze zur Qualitätssteigerung unter begrenzten Trainings- und Inferenzbudgets. Mit SLiC erreichen wir oder übertreffen die SOTA-Ergebnisse auf einer Vielzahl von Generierungsaufgaben, die abstraktive Zusammenfassung, Fragenstellung, abstraktive Fragebeantwortung sowie Datensatz-zu-Text-Generierung umfassen – selbst mit modellstarken, aber nicht besonders großen Modellen.