Bewertung der Leistungsfähigkeit von TAAF für Bildklassifizierungsmodelle
In diesem Artikel präsentieren wir die Ergebnisse der Evaluation einer maßgeschneiderten Aktivierungsfunktion, der Analog Activation Function (TAAF), auf den Datensätzen MNIST und CIFAR-10. TAAF ist eine neuartige Aktivierungsfunktion, die darauf abzielt, die Leistung von neuronalen Netzen durch eine einzigartige mathematische Formulierung zu verbessern. Wir evaluieren TAAF in einer architektonischen Konfiguration eines convolutionalen neuronalen Netzes (CNN) und vergleichen ihre Leistung mit herkömmlichen Aktivierungsfunktionen auf MNIST sowie mit der ELU-Funktion auf CIFAR-10. Unsere Ergebnisse zeigen, dass TAAF eine Testgenauigkeit von 99,39 % auf dem MNIST-Datensatz und von 79,37 % auf dem CIFAR-10-Datensatz erreicht. Auf MNIST übertrifft TAAF die herkömmlichen Aktivierungsfunktionen leicht mit einer Testgenauigkeit von 99,39 %. Auf CIFAR-10 erzielt TAAF eine signifikant höhere Testgenauigkeit von 79,37 % im Vergleich zu 72,06 % bei ELU innerhalb derselben Architektur, was auf verbesserte Verallgemeinerungsfähigkeiten hindeutet. Dieser Artikel legt eine solide Leistungsgrundlage für TAAF bei verschiedenen Aufgaben der Bildklassifikation fest.