HyperAIHyperAI

Command Palette

Search for a command to run...

il y a 4 mois

Analyse de la structure de représentation du discours avec des réseaux de neurones récurrents et le modèle Transformer

{Mirella Lapata Jiangming Liu Shay B. Cohen}

Analyse de la structure de représentation du discours avec des réseaux de neurones récurrents et le modèle Transformer

Résumé

Nous décrivons les systèmes que nous avons développés pour le traitement de la structure de représentation du discours (DRS) dans le cadre de la tâche partagée IWCS-2019 sur le parsing de DRS. Nos systèmes reposent sur une modélisation séquence-à-séquence. Pour mettre en œuvre notre modèle, nous utilisons le système open-source de traduction automatique neuronale implémenté en PyTorch, OpenNMT-py. Nous avons expérimenté divers modèles encodeur-décodeur basés sur des réseaux de neurones récurrents ainsi que sur le modèle Transformer. Nos expérimentations ont été menées sur la base de référence standard du Parallel Meaning Bank (PMB 2.2). Notre meilleur système atteint un score de 84,8 % en F1 sur la tâche partagée de parsing de DRS.

Benchmarks

BenchmarkMéthodologieMétriques
drs-parsing-on-pmb-2-2-0Transformer seq2seq
F1: 87.1

Construire l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.

Co-codage IA
GPU prêts à utiliser
Meilleurs prix
Commencer

Hyper Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Analyse de la structure de représentation du discours avec des réseaux de neurones récurrents et le modèle Transformer | Articles de recherche | HyperAI