HyperAIHyperAI
vor 2 Monaten

Verlustfunktion Entropieregularisierung für vielfältige Entscheidungsgrenzen

Sue Sin Chong
Verlustfunktion Entropieregularisierung für vielfältige Entscheidungsgrenzen
Abstract

Ist es möglich, mehrere Klassifizierer zu trainieren, um sinnvolle Crowdsourcing-Aktivitäten durchzuführen, die ein besseres Satz von Vorhersageetiketten erzeugen, ohne verifizierte Annotationen? Dieses Papier wird die kontrastiven Lernziele modifizieren, um automatisch ein selbstkomplementäres Ensemble zu trainieren, das eine Stand der Technik entsprechende Vorhersage für die Aufgaben CIFAR10 und CIFAR100-20 erzielt. Das Papier präsentiert eine einfache Methode, um einen einzelnen unüberwachten Klassifikationsprozess so zu modifizieren, dass automatisch ein Ensemble neuronaler Netze mit unterschiedlichen Entscheidungsgrenzen generiert wird, um eine umfassendere Merkmengsammlung der Klassen zu lernen. Die Regularisierungsterme der Verlustfunktionsentropie (LFER) werden den Vorertrainings- und kontrastiven Lernverlustfunktionen hinzugefügt. LFER ist ein Instrument zur Modifikation des Entropiezustands des Ausgaberaums beim unüberwachten Lernen und damit zur Diversifizierung der latenten Darstellung der Entscheidungsgrenzen neuronaler Netze. Ensembles, die mit LFER trainiert wurden, weisen eine höhere Vorhersagegenauigkeit für Stichproben in der Nähe von Entscheidungsgrenzen auf. LFER ist ein geeignetes Instrument zur Störung von Entscheidungsgrenzen und hat Klassifizierer hervorgebracht, die im kontrastiven Lernstadium den aktuellen Stand der Technik übertreffen. Experimente zeigen, dass LFER ein Ensemble erzeugen kann, dessen Genauigkeit dem aktuellen Stand der Technik vergleichbar ist und gleichzeitig unterschiedliche latente Entscheidungsgrenzen aufweist. Dies ermöglicht es uns, sinnvolle Verifikationen für Stichproben in der Nähe von Entscheidungsgrenzen durchzuführen und ermutigt die korrekte Klassifikation solcher Proben. Durch die Kombination der Wahrscheinlichkeit einer korrekten Vorhersage eines einzelnen Datensatzes innerhalb eines Ensembles aus trainierten neuronalen Netzen kann unsere Methode einen einzelnen Klassifizierer verbessern, indem sie Rauschen reduziert und korrekte Merkmalszuordnungen bestätigt.