
Chapitre de manuel sur la traduction automatique neuronaleCe chapitre offre une présentation complète du sujet, couvrant l'introduction aux réseaux de neurones, les graphes de calcul, la description du modèle séquence-à-séquence à l'attention actuellement dominant, les récentes améliorations, les architectures alternatives et les défis. Il est destiné à être inclus dans le manuel Traduction Statistique Automatique. Ce chapitre a été utilisé dans le cours de traduction automatique de l'automne 2017 à l'Université Johns Hopkins (JHU).Introduction aux réseaux de neuronesLes réseaux de neurones artificiels sont des modèles computationnels inspirés par le fonctionnement du cerveau humain. Ils sont composés d'un grand nombre de nœuds (ou neurones) interconnectés qui traitent et transmettent des informations. Les réseaux de neurones profonds (DNN) ont revolutionné plusieurs domaines, notamment la reconnaissance vocale, la vision par ordinateur et la traduction automatique.Graphes de calculUn graphe de calcul est une représentation graphique des opérations effectuées lors de l'apprentissage et de l'inference dans un réseau neuronal. Chaque nœud du graphe représente une opération mathématique ou une fonction d'activation, tandis que chaque arête représente le flux des données entre ces opérations. Les graphes de calcul permettent une meilleure compréhension et une optimisation efficace des processus d'apprentissage.Modèle séquence-à-séquence à l'attentionLe modèle séquence-à-séquence (Seq2Seq) avec mécanisme d'attention est actuellement le paradigme dominant en traduction automatique neuronale. Ce modèle se compose généralement de deux parties : un encodeur qui transforme la séquence source en une représentation intermédiaire, et un décodeur qui génère la séquence cible à partir de cette représentation. Le mécanisme d'attention permet au décodeur de se concentrer sur différentes parties de la séquence source pendant la génération, ce qui améliore considérablement la précision et la cohérence des traductions.Récentes améliorationsLes dernières avancées en traduction automatique neuronale incluent l'utilisation d'architectures plus sophistiquées telles que les Transformers (Transformateurs), qui éliminent la nécessité d'une structure séquentielle en utilisant des mécanismes d'auto-attention. Ces modèles ont montré des performances supérieures sur plusieurs tâches, notamment en termes de vitesse et d'efficacité.Architectures alternativesOutre les modèles Seq2Seq avec attention, il existe d'autres architectures prometteuses comme les modèles basés sur les flots (Flow-based models) et les modèles hybrides combinant des approches statistiques traditionnelles avec des techniques neuronales. Ces architectures offrent des avantages spécifiques selon le contexte d'utilisation.DéfisMalgré leurs succès notables, les modèles de traduction automatique neuronale font toujours face à plusieurs défis. Parmi ceux-ci figurent le traitement des langues à faibles ressources, la gestion des erreurs contextuelles et le besoin d'une grande quantité de données pour un apprentissage efficace.Ce chapitre vise à fournir aux étudiants une base solide pour comprendre les concepts clés et les développements récents en traduction automatique neuronale, tout en mettant en lumière les défis actuels et futurs du domaine.