HyperAIHyperAI

Command Palette

Search for a command to run...

Équations différentielles ordinaires neuronales

Ricky T. Q. Chen; Yulia Rubanova; Jesse Bettencourt; David Duvenaud

Résumé

Nous présentons une nouvelle famille de modèles de réseaux neuronaux profonds. Au lieu de spécifier une séquence discrète de couches cachées, nous paramétrons la dérivée de l'état caché à l'aide d'un réseau neuronal. La sortie du réseau est calculée en utilisant un solveur d'équations différentielles en boîte noire. Ces modèles à profondeur continue ont un coût mémoire constant, adaptent leur stratégie d'évaluation à chaque entrée et peuvent explicitement échanger la précision numérique contre la vitesse. Nous illustrons ces propriétés dans des réseaux résiduels à profondeur continue et des modèles de variables latentes en temps continu. Nous construisons également des flux normalisants continus, un modèle génératif qui peut être entraîné par vraisemblance maximale sans partitionner ou ordonner les dimensions des données. Pour l'entraînement, nous montrons comment effectuer efficacement le rétropropagation à travers tout solveur d'EDO (équation différentielle ordinaire), sans accès à ses opérations internes. Cela permet l'entraînement intégral des EDO au sein de modèles plus vastes.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp