HyperAIHyperAI

Command Palette

Search for a command to run...

Généralisation des MLP avec des dropouts, une normalisation par lots et des connexions résiduelles

Kim Taewoon

Résumé

Un perceptron multicouche (MLP) est généralement composé de plusieurs couches entièrement connectées munies de fonctions d'activation non linéaires. Plusieurs approches ont été proposées pour améliorer leurs performances (par exemple, une convergence plus rapide, un meilleur point de convergence, etc.). Cependant, les recherches manquent de méthodes structurées pour les évaluer. Nous avons testé différentes architectures de MLP en menant des expériences sur des jeux de données relatifs à l'âge et au sexe. Nous montrons empiriquement que le blanchiment des entrées avant chaque couche linéaire et l'ajout de connexions résiduelles peuvent entraîner une meilleure performance de notre architecture MLP proposée. Étant donné que le processus de blanchiment inclut des dropouts, il peut également être utilisé pour approximer l'inférence bayésienne. Nous avons rendu notre code open source et mis à disposition nos modèles ainsi que des images Docker sur https://github.com/tae898/age-gender/


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Généralisation des MLP avec des dropouts, une normalisation par lots et des connexions résiduelles | Articles | HyperAI