HyperAIHyperAI

Command Palette

Search for a command to run...

LiLT : Un Transformateur de disposition simple mais efficace, indépendant du langage, pour la compréhension des documents structurés

Jiapeng Wang extsuperscript1 Lianwen Jin extsuperscript*1,3,4 Kai Ding extsuperscript2,3

Résumé

La compréhension de documents structurés a attiré une attention considérable et connu des progrès significatifs récemment, en raison de son rôle crucial dans le traitement intelligent des documents. Cependant, la plupart des modèles existants ne peuvent traiter que les données de documents d'une langue spécifique (généralement l'anglais) incluses dans la collection de pré-entraînement, ce qui est extrêmement limité. Pour remédier à ce problème, nous proposons un Transformers de disposition de document (Layout Transformer) indépendant du langage (Language-independent Layout Transformer, LiLT) simple mais efficace pour la compréhension de documents structurés. Le LiLT peut être pré-entraîné sur des documents structurés d'une seule langue, puis directement affiné sur d'autres langues grâce aux modèles textuels pré-entraînés mono ou multilingues correspondants. Les résultats expérimentaux sur huit langues ont montré que le LiLT peut atteindre des performances compétitives voire supérieures sur diverses évaluations downstream largement utilisées, permettant ainsi un avantage indépendant du langage grâce au pré-entraînement de la structure de disposition des documents. Le code et le modèle sont librement disponibles à l'adresse https://github.com/jpWang/LiLT.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp