HyperAIHyperAI

Command Palette

Search for a command to run...

Évaluation empirique des activations rectifiées dans les réseaux de neurones convolutifs

Bing Xu Naiyan Wang Tianqi Chen Mu Li

Résumé

Dans cet article, nous examinons les performances de différents types de fonctions d'activation rectifiées dans les réseaux neuronaux convolutifs : l'unité linéaire rectifiée standard (ReLU), l'unité linéaire rectifiée fuyante (Leaky ReLU), l'unité linéaire rectifiée paramétrique (PReLU) et une nouvelle unité linéaire rectifiée fuyante aléatoire (RReLU). Nous évaluons ces fonctions d'activation sur une tâche standard de classification d'images. Nos expériences suggèrent qu'inclure une pente non nulle pour la partie négative des unités d'activation rectifiées peut améliorer de manière constante les résultats. Ainsi, nos conclusions remettent en question la croyance courante selon laquelle la parcimonie est la clé d'une bonne performance dans le ReLU. De plus, sur des ensembles de données à petite échelle, l'utilisation d'une pente négative déterministe ou son apprentissage sont tous deux susceptibles de conduire au surapprentissage. Elles ne sont pas aussi efficaces que l'utilisation de leur contrepartie aléatoire. En utilisant RReLU, nous avons atteint une précision de 75,68 % sur l'ensemble de test CIFAR-100 sans tests multiples ni combinaison.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Évaluation empirique des activations rectifiées dans les réseaux de neurones convolutifs | Articles | HyperAI