Die Regularisierung des Kreuzentropieverlusts durch minimale Entropie und K-L-Divergenz

Ich stelle zwei neue Verlustfunktionen für die Klassifizierung im Deep Learning vor. Die beiden Verlustfunktionen erweitern den Standard-Cross-Entropy-Verlust durch Regularisierung mit Minimum-Entropie- und Kullback-Leibler-Divergenztermen (K-L-Divergenz). Die erste der beiden neuen Verlustfunktionen wird als Mixed-Entropy-Verlust (kurz MIX-ENT) bezeichnet, während die zweite als Minimum-Entropie-Regularisierter Cross-Entropy-Verlust (kurz MIN-ENT) bezeichnet wird. Die MIX-ENT-Funktion führt einen Regularisierer ein, der äquivalent zur Summe eines Minimum-Entropie-Terms und eines K-L-Divergenzterms gezeigt werden kann. Es ist jedoch zu beachten, dass der K-L-Divergenzterm hier von dem in der Standard-Cross-Entropy-Verlustfunktion abweicht, indem er die Rollen der Zielwahrscheinlichkeit und der Hypothese-Wahrscheinlichkeit vertauscht. Die MIN-ENT-Funktion fügt einfach einen Minimum-Entropie-Regularisierer zur Standard-Cross-Entropy-Verlustfunktion hinzu. Bei sowohl MIX-ENT als auch MIN-ENT minimiert der Minimum-Entropie-Regularisierer die Entropie der Hypothese-Wahrscheinlichkeitsverteilung, die vom neuronalen Netzwerk ausgegeben wird. Experimente auf dem EMNIST-Letters-Datensatz zeigen, dass meine Implementierung von MIX-ENT und MIN-ENT das VGG Modell von seinem bisherigen dritten Platz auf dem PapersWithCode-Ranking auf den zweiten Platz befördert, wobei es das Spinal-VGG Modell übertrifft. Speziell erreicht VGG bei Verwendung des Standard-Cross-Entropy 95,86 %, während Spinal-VGG 95,88 % Klassifikationsgenauigkeit erreicht. Mit unserem MIN-ENT erreicht VGG (ohne Spinal-VGG) eine Genauigkeit von 95,933 %, während unser MIX-ENT eine Genauigkeit von 95,927 % erreicht. Die vortrainierten Modelle für beide MIX-ENT und MIN-ENT sind unter https://github.com/rahmanoladi/minimum entropy project verfügbar.