HyperAIHyperAI

Command Palette

Search for a command to run...

Se tromper est humain, mais les Llamas peuvent aussi apprendre à le faire

Agnes Luhtaru Taido Purason Martin Vainikko Maksym Del Mark Fishel

Résumé

Cette étude explore l'amélioration de la correction d'erreurs grammaticales (GEC) par la génération artificielle d'erreurs (AEG) à l'aide de modèles linguistiques (LM). Plus précisément, nous ajustons finement des modèles linguistiques basés sur Llama 2 pour la génération d'erreurs et constatons que cette approche produit des erreurs synthétiques similaires aux erreurs humaines. Ensuite, nous entraînons des modèles GEC basés sur Llama en utilisant ces erreurs artificielles, dépassant ainsi les modèles d'état de l'art précédents, avec des gains compris entre 0,8 et 6 points F0.5 sur toutes les langues testées (allemand, ukrainien et estonien). En outre, nous démontrons que la génération d'erreurs par ajustement fin de modèles séquence-à-séquence plus petits, ainsi que par promptage de grands modèles commerciaux (GPT-3.5 et GPT-4), conduit également à des erreurs synthétiques bénéfiques pour les modèles de génération d'erreurs.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Se tromper est humain, mais les Llamas peuvent aussi apprendre à le faire | Articles | HyperAI