HyperAIHyperAI

Command Palette

Search for a command to run...

Réseaux de Neurones à Transitions Normalisés Globalement

Daniel Andor Chris Alberti David Weiss Aliaksei Severyn Alessandro Presta Kuzman Ganchev Slav Petrov Michael Collins

Résumé

Nous présentons un modèle de réseau neuronal basé sur des transitions, normalisé globalement, qui atteint des performances d'état de l'art en étiquetage morphosyntaxique (part-of-speech tagging), analyse de dépendance (dependency parsing) et compression de phrases (sentence compression). Notre modèle est une simple architecture de réseau neuronal à alimentation directe (feed-forward neural network) qui fonctionne sur un système de transitions spécifique à la tâche, tout en obtenant des précisions comparables ou supérieures à celles des modèles récurrents. Nous abordons l'importance de la normalisation globale par rapport à la normalisation locale : une compréhension clé est que le problème du biais des étiquettes implique que les modèles normalisés globalement peuvent être strictement plus expressifs que ceux normalisés localement.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Réseaux de Neurones à Transitions Normalisés Globalement | Articles | HyperAI