Évaluation des performances de TAAF pour les modèles de classification d'images
Dans cet article, nous présentons les résultats obtenus en testant une fonction d’activation personnalisée, appelée Fonction d’Activation Analogique (TAAF), sur les jeux de données MNIST et CIFAR-10. La TAAF est une nouvelle fonction d’activation conçue pour améliorer les performances des réseaux de neurones grâce à une formulation mathématique originale. Nous évaluons la TAAF dans une architecture de réseau de neurones convolutif (CNN) et comparons ses performances aux fonctions d’activation standards sur MNIST, ainsi qu’à la fonction ELU sur CIFAR-10. Nos résultats montrent que la TAAF atteint une précision de test de 99,39 % sur le jeu de données MNIST et de 79,37 % sur CIFAR-10. Sur MNIST, la TAAF obtient une précision de test légèrement supérieure à 99,39 %, dépassant ainsi les fonctions d’activation standards. Sur CIFAR-10, elle atteint une précision de test significativement plus élevée de 79,37 %, contre 72,06 % pour ELU dans la même architecture, ce qui suggère une meilleure capacité de généralisation. Ce travail établit une base de performance solide pour la TAAF dans diverses tâches de classification d’images.