HyperAIHyperAI

Command Palette

Search for a command to run...

Réseaux de neurones résiduels multi-tâches avec mécanisme d'attention pour l'extraction d'arguments

Andrea Galassi; Marco Lippi; Paolo Torroni

Résumé

Nous explorons l'utilisation des réseaux résiduels et de l'attention neuronale pour les tâches d'extraction de multiples arguments. Nous proposons une architecture résiduelle qui exploite l'attention, l'apprentissage multi-tâche et utilise un ensemble, sans faire aucune hypothèse sur la structure des documents ou des arguments. Nous présentons une évaluation expérimentale approfondie sur cinq corpus différents comprenant des commentaires générés par les utilisateurs, des publications scientifiques et des essais persuasifs. Nos résultats montrent que notre approche est un concurrent de taille face aux architectures de pointe ayant une empreinte computationnelle plus importante ou un design spécifique à un corpus, représentant ainsi un compromis intéressant entre généralité, précision des performances et taille réduite du modèle.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Réseaux de neurones résiduels multi-tâches avec mécanisme d'attention pour l'extraction d'arguments | Articles | HyperAI