il y a 11 jours
Analyse de la structure de représentation du discours avec des réseaux de neurones récurrents et le modèle Transformer
{Mirella Lapata, Jiangming Liu, Shay B. Cohen}

Résumé
Nous décrivons les systèmes que nous avons développés pour le traitement de la structure de représentation du discours (DRS) dans le cadre de la tâche partagée IWCS-2019 sur le parsing de DRS. Nos systèmes reposent sur une modélisation séquence-à-séquence. Pour mettre en œuvre notre modèle, nous utilisons le système open-source de traduction automatique neuronale implémenté en PyTorch, OpenNMT-py. Nous avons expérimenté divers modèles encodeur-décodeur basés sur des réseaux de neurones récurrents ainsi que sur le modèle Transformer. Nos expérimentations ont été menées sur la base de référence standard du Parallel Meaning Bank (PMB 2.2). Notre meilleur système atteint un score de 84,8 % en F1 sur la tâche partagée de parsing de DRS.