HyperAIHyperAI

Command Palette

Search for a command to run...

Analyse de la structure de représentation du discours avec des réseaux de neurones récurrents et le modèle Transformer

Mirella Lapata Jiangming Liu Shay B. Cohen

Résumé

Nous décrivons les systèmes que nous avons développés pour le traitement de la structure de représentation du discours (DRS) dans le cadre de la tâche partagée IWCS-2019 sur le parsing de DRS. Nos systèmes reposent sur une modélisation séquence-à-séquence. Pour mettre en œuvre notre modèle, nous utilisons le système open-source de traduction automatique neuronale implémenté en PyTorch, OpenNMT-py. Nous avons expérimenté divers modèles encodeur-décodeur basés sur des réseaux de neurones récurrents ainsi que sur le modèle Transformer. Nos expérimentations ont été menées sur la base de référence standard du Parallel Meaning Bank (PMB 2.2). Notre meilleur système atteint un score de 84,8 % en F1 sur la tâche partagée de parsing de DRS.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Analyse de la structure de représentation du discours avec des réseaux de neurones récurrents et le modèle Transformer | Articles | HyperAI