HyperAIHyperAI

Command Palette

Search for a command to run...

TaBERT : Préentraînement pour la compréhension conjointe des données textuelles et tabulaires

Pengcheng Yin Graham Neubig Wen-tau Yih Sebastian Riedel

Résumé

Les dernières années ont vu émerger un fort développement des modèles de langage préentraînés (LM) pour les tâches d’understanding du langage naturel (LN) basées sur le texte. Ces modèles sont généralement entraînés sur des textes libres en langage naturel, ce qui peut les rendre peu adaptés à des tâches telles que l’analyse sémantique sur des données structurées, qui exigent un raisonnement à la fois sur des questions en langage naturel libre et sur des données tabulaires structurées (par exemple, des tables de bases de données). Dans cet article, nous présentons TaBERT, un modèle de langage préentraîné qui apprend conjointement des représentations pour des phrases en langage naturel et pour des tables (semi-)structurées. TaBERT est entraîné sur un grand corpus comprenant 26 millions de tables et leurs contextes en anglais. Dans nos expériences, des parseurs sémantiques neuronaux utilisant TaBERT comme couches de représentation des caractéristiques atteignent de nouveaux meilleurs résultats sur le défi de benchmark d’analyse sémantique faiblement supervisée WikiTableQuestions, tout en se montrant compétitifs sur le jeu de données text-to-SQL Spider. Une implémentation du modèle sera disponible à l’adresse http://fburl.com/TaBERT.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp