HyperAIHyperAI
il y a un mois

Réseaux de neurones à convolution complets LSTM pour la classification de séries temporelles

Fazle Karim; Somshubra Majumdar; Houshang Darabi; Shun Chen
Réseaux de neurones à convolution complets LSTM pour la classification de séries temporelles
Résumé

Les réseaux neuronaux entièrement convolutifs (FCN) ont démontré leur capacité à atteindre des performances de pointe dans la tâche de classification de séquences temporelles. Nous proposons d'augmenter les réseaux entièrement convolutifs avec des sous-modules de réseaux neuronaux récurrents à mémoire à court et long terme (LSTM RNN) pour la classification de séries temporelles. Nos modèles proposés améliorent considérablement les performances des réseaux entièrement convolutifs avec une augmentation marginale de la taille du modèle et nécessitent un prétraitement minimal du jeu de données. Le modèle Long Short Term Memory Fully Convolutional Network (LSTM-FCN) proposé atteint des performances de pointe comparées à celles d'autres méthodes. Nous explorons également l'utilisation d'un mécanisme d'attention pour améliorer la classification des séries temporelles avec le Attention Long Short Term Memory Fully Convolutional Network (ALSTM-FCN). L'utilisation du mécanisme d'attention permet de visualiser le processus décisionnel de la cellule LSTM. De plus, nous proposons l'affinage comme méthode pour améliorer les performances des modèles entraînés. Une analyse globale des performances de notre modèle est fournie et comparée à celles d'autres techniques.