HyperAIHyperAI

Command Palette

Search for a command to run...

il y a 4 mois

Recherche d'architecture différentiable améliorée pour la modélisation du langage et la reconnaissance d'entités nommées

{Yufan Jiang Tong Xiao Chunliang Zhang Chi Hu Jingbo Zhu}

Recherche d'architecture différentiable améliorée pour la modélisation du langage et la reconnaissance d'entités nommées

Résumé

Dans cet article, nous étudions les méthodes de recherche différentiable d'architecture (NAS) appliquées au traitement du langage naturel. Plus précisément, nous améliorons la recherche d'architecture différentiable en éliminant la contrainte softmax-locale. Par ailleurs, nous appliquons la NAS différentiable à la reconnaissance d'entités nommées (NER). Il s'agit pour la première fois que des méthodes de NAS différentiable soient adoptées dans des tâches du traitement du langage naturel autres que le modèle de langage. Sur les données de modélisation du langage PTB et de NER anglais CoNLL-2003, notre méthode surpasser des baselines puissantes, atteignant ainsi un nouveau record sur la tâche de NER.

Benchmarks

BenchmarkMéthodologieMétriques
language-modelling-on-ptbI-DARTS
PPL: 56.0
named-entity-recognition-ner-on-conll-2003I-DARTS + Flair
F1: 93.47

Construire l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.

Co-codage IA
GPU prêts à utiliser
Meilleurs prix
Commencer

Hyper Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Recherche d'architecture différentiable améliorée pour la modélisation du langage et la reconnaissance d'entités nommées | Articles de recherche | HyperAI