Équations différentielles ordinaires latentes pour des séries temporelles échantillonnées de manière irrégulière

Les séries temporelles à intervalles non uniformes apparaissent dans de nombreuses applications et sont difficiles à modéliser à l'aide des réseaux de neurones récurrents standards (RNN). Nous généralisons les RNN en leur donnant des dynamiques cachées en temps continu définies par des équations différentielles ordinaires (EDO), un modèle que nous appelons ODE-RNN (Ordinary Differential Equation Recurrent Neural Networks). De plus, nous utilisons les ODE-RNN pour remplacer le réseau de reconnaissance du modèle Latent ODE récemment proposé. Les ODE-RNN et les Latent ODE peuvent naturellement gérer des intervalles de temps arbitraires entre les observations et modéliser explicitement la probabilité des temps d'observation à l'aide de processus de Poisson. Nous montrons expérimentalement que ces modèles basés sur les EDO surpassent leurs homologues basés sur les RNN sur des données échantillonnées irrégulièrement.