Command Palette
Search for a command to run...
Glauben Sie Ihrem Modell: Verteilungsgesteuerte Kalibrierung des Vertrauensniveaus
Glauben Sie Ihrem Modell: Verteilungsgesteuerte Kalibrierung des Vertrauensniveaus
Xizhong Yang Haotian Zhang Huiming Wang Mofei Song
Zusammenfassung
Große Reasoning-Modelle haben durch die Weiterentwicklung von Test-Time-Scaling-Techniken eine bemerkenswerte Leistungsfähigkeit gezeigt, die die Vorhersagegenauigkeit durch die Generierung mehrerer Kandidatenantworten und die anschließende Auswahl der zuverlässigsten Antwort verbessert. Während frühere Arbeiten nachgewiesen haben, dass interne Modellsignale wie Konfidenzwerte die Korrektheit von Antworten teilweise anzeigen können und eine verteilungsbezogene Korrelation mit der Genauigkeit aufweisen, wurde diese Verteilungsinformation bislang nicht umfassend genutzt, um die Antwortauswahl zu steuern. Ausgehend von dieser Erkenntnis schlagen wir DistriVoting vor, das Verteilungsprioris als zusätzliches Signal neben der Konfidenz während des Voting-Prozesses integriert. Konkret zerlegt unsere Methode (1) zunächst die gemischte Konfidenzverteilung mithilfe von Gaussian Mixture Models in positive und negative Komponenten und (2) wendet daraufhin einen Reject-Filter an, der auf positiven bzw. negativen Stichproben aus diesen Komponenten basiert, um eine Überlappung zwischen den beiden Verteilungen zu reduzieren. Darüber hinaus schlagen wir SelfStepConf vor, um die Überlappung aus der Perspektive der Verteilung selbst weiter zu verringern: Diese Methode nutzt konfidenzbasierte Werte auf Schritt-Ebene, um den Inferenzprozess dynamisch anzupassen, die Trennschärfe zwischen den beiden Verteilungen zu erhöhen und somit die Zuverlässigkeit der Konfidenzwerte im Voting-Verfahren zu verbessern. Experimente mit 16 Modellen und 5 Benchmark-Datensätzen belegen, dass unsere Methode signifikant besser abschneidet als bisherige State-of-the-Art-Ansätze.