Modèles de matrices paramétriques

Nous présentons une classe générale d’algorithmes d’apprentissage automatique appelés modèles matriciels paramétriques. Contrairement à la plupart des modèles d’apprentissage automatique existants qui imitent la biologie des neurones, les modèles matriciels paramétriques utilisent des équations matricielles pour émuler des systèmes physiques. De la même manière que l’on résout généralement les problèmes de physique, les modèles matriciels paramétriques apprennent les équations fondamentales qui conduisent aux sorties souhaitées. Ces modèles peuvent être entraînés efficacement à partir de données empiriques, et les équations qu’ils utilisent peuvent s’appuyer sur des relations algébriques, différentielles ou intégrales. Bien qu’initialement conçus pour le calcul scientifique, nous démontrons que les modèles matriciels paramétriques sont des approximateurs universels de fonctions, pouvant être appliqués à des problèmes généraux d’apprentissage automatique. Après avoir introduit la théorie sous-jacente, nous appliquons ces modèles à une série de défis variés, illustrant leur efficacité dans un large éventail de problèmes. Pour tous les défis testés ici, les modèles matriciels paramétriques produisent des résultats précis dans un cadre computationnel à la fois efficace et interprétable, permettant une extrapolation des caractéristiques d’entrée.