Command Palette
Search for a command to run...
Analyse de la structure de représentation du discours avec des réseaux de neurones récurrents et le modèle Transformer
{Mirella Lapata Jiangming Liu Shay B. Cohen}

Résumé
Nous décrivons les systèmes que nous avons développés pour le traitement de la structure de représentation du discours (DRS) dans le cadre de la tâche partagée IWCS-2019 sur le parsing de DRS. Nos systèmes reposent sur une modélisation séquence-à-séquence. Pour mettre en œuvre notre modèle, nous utilisons le système open-source de traduction automatique neuronale implémenté en PyTorch, OpenNMT-py. Nous avons expérimenté divers modèles encodeur-décodeur basés sur des réseaux de neurones récurrents ainsi que sur le modèle Transformer. Nos expérimentations ont été menées sur la base de référence standard du Parallel Meaning Bank (PMB 2.2). Notre meilleur système atteint un score de 84,8 % en F1 sur la tâche partagée de parsing de DRS.
Benchmarks
| Benchmark | Méthodologie | Métriques |
|---|---|---|
| drs-parsing-on-pmb-2-2-0 | Transformer seq2seq | F1: 87.1 |
Construire l'IA avec l'IA
De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.