HyperAIHyperAI

Command Palette

Search for a command to run...

Peut la syntaxe aider ? Amélioration d’un modèle de compression de phrases basé sur un LSTM pour de nouveaux domaines

D. Song an Jing Jiang Lejian Liao Chen Hui Ong Liangguo Wang Hai Leong Chieu

Résumé

Dans cet article, nous étudions comment améliorer la capacité d’adaptation au domaine d’un modèle de réseau de neurones LSTM basé sur la suppression pour la compression de phrases. Nous supposons que l’information syntaxique contribue à rendre ces modèles plus robustes à travers différents domaines. Nous proposons deux modifications majeures au modèle : l’utilisation de caractéristiques syntaxiques explicites et l’introduction de contraintes syntaxiques via la Programmation Linéaire Entière (PLE). Nos résultats d’évaluation montrent que le modèle proposé obtient de meilleurs résultats que le modèle original ainsi qu’un modèle classique non neuronal dans un cadre d’adaptation de domaine.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Peut la syntaxe aider ? Amélioration d’un modèle de compression de phrases basé sur un LSTM pour de nouveaux domaines | Articles | HyperAI