HyperAIHyperAI
vor 2 Monaten

SemiReward: Ein allgemeines Belohnungsmodell für semisupervises Lernen

Li, Siyuan ; Jin, Weiyang ; Wang, Zedong ; Wu, Fang ; Liu, Zicheng ; Tan, Cheng ; Li, Stan Z.
SemiReward: Ein allgemeines Belohnungsmodell für semisupervises Lernen
Abstract

Das semisupervisierte Lernen (SSL) hat in den letzten Jahren bei verschiedenen Verbesserungen des Selbsttrainingsrahmens mit Pseudobeschriftung große Fortschritte gemacht. Die Hauptausforderung besteht darin, hochwertige Pseudobeschriftungen vom Bestätigungsfehler zu unterscheiden. Bestehende Strategien zur Auswahl von Pseudobeschriftungen sind jedoch entweder auf vorgegebene Schemata oder komplexe, speziell für die Klassifizierung entwickelte Handwerkskunst beschränkt und schaffen es nicht, gleichzeitig hochwertige Beschriftungen, schnelle Konvergenz und Aufgabenflexibilität zu erreichen. Um diesen Zielen gerecht zu werden, schlagen wir ein semisupervisiertes Belohnungsframework (SemiReward) vor, das Belohnungswerte vorhersagt, um hochwertige Pseudobeschriftungen zu bewerten und herauszufiltern. Dieses Framework kann in verschiedene gängige SSL-Methoden eingebunden werden und eignet sich für eine Vielzahl von Aufgabentypen und Szenarien. Um den Bestätigungsfehler zu reduzieren, wird SemiReward in zwei Phasen online trainiert, wobei ein Generatormodell und eine Subsampling-Strategie verwendet werden. Ausführliche Experimente anhand von 13 standardisierten SSL-Benchmarks über drei Modalitäten zeigen, dass SemiReward signifikante Leistungsverbesserungen und schnellere Konvergenzgeschwindigkeiten gegenüber Pseudo Label, FlexMatch und Free/SoftMatch erzielt. Der Quellcode und die Modelle sind unter https://github.com/Westlake-AI/SemiReward verfügbar.

SemiReward: Ein allgemeines Belohnungsmodell für semisupervises Lernen | Neueste Forschungsarbeiten | HyperAI