HyperAIHyperAI

Command Palette

Search for a command to run...

Verlustfunktion Entropieregularisierung für vielfältige Entscheidungsgrenzen

Sue Sin Chong

Zusammenfassung

Ist es möglich, mehrere Klassifizierer zu trainieren, um sinnvolle Crowdsourcing-Aktivitäten durchzuführen, die ein besseres Satz von Vorhersageetiketten erzeugen, ohne verifizierte Annotationen? Dieses Papier wird die kontrastiven Lernziele modifizieren, um automatisch ein selbstkomplementäres Ensemble zu trainieren, das eine Stand der Technik entsprechende Vorhersage für die Aufgaben CIFAR10 und CIFAR100-20 erzielt. Das Papier präsentiert eine einfache Methode, um einen einzelnen unüberwachten Klassifikationsprozess so zu modifizieren, dass automatisch ein Ensemble neuronaler Netze mit unterschiedlichen Entscheidungsgrenzen generiert wird, um eine umfassendere Merkmengsammlung der Klassen zu lernen. Die Regularisierungsterme der Verlustfunktionsentropie (LFER) werden den Vorertrainings- und kontrastiven Lernverlustfunktionen hinzugefügt. LFER ist ein Instrument zur Modifikation des Entropiezustands des Ausgaberaums beim unüberwachten Lernen und damit zur Diversifizierung der latenten Darstellung der Entscheidungsgrenzen neuronaler Netze. Ensembles, die mit LFER trainiert wurden, weisen eine höhere Vorhersagegenauigkeit für Stichproben in der Nähe von Entscheidungsgrenzen auf. LFER ist ein geeignetes Instrument zur Störung von Entscheidungsgrenzen und hat Klassifizierer hervorgebracht, die im kontrastiven Lernstadium den aktuellen Stand der Technik übertreffen. Experimente zeigen, dass LFER ein Ensemble erzeugen kann, dessen Genauigkeit dem aktuellen Stand der Technik vergleichbar ist und gleichzeitig unterschiedliche latente Entscheidungsgrenzen aufweist. Dies ermöglicht es uns, sinnvolle Verifikationen für Stichproben in der Nähe von Entscheidungsgrenzen durchzuführen und ermutigt die korrekte Klassifikation solcher Proben. Durch die Kombination der Wahrscheinlichkeit einer korrekten Vorhersage eines einzelnen Datensatzes innerhalb eines Ensembles aus trainierten neuronalen Netzen kann unsere Methode einen einzelnen Klassifizierer verbessern, indem sie Rauschen reduziert und korrekte Merkmalszuordnungen bestätigt.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp