HyperAIHyperAI

Command Palette

Search for a command to run...

Tâches de pré-entraînement adaptées au domaine pour la récupération dense

Résumé

L’entraînement préalable sur des jeux de données de plus en plus volumineux, accompagné d’une augmentation continue de la taille des modèles, s’est avéré être une recette éprouvée pour améliorer les performances sur presque toutes les tâches de traitement du langage naturel (NLP). Une exception notable concerne la récupération d’information, où les entraînements préalables supplémentaires n’ont jusqu’à présent pas produit de résultats convaincants. Nous montrons qu’avec une configuration d’entraînement préalable appropriée, cette barrière peut être levée. Nous le démontrons en entraînant préalablement de grands modèles bi-encodeurs sur : 1) un ensemble récemment publié de 65 millions de questions générées de manière synthétique, et 2) 200 millions de paires de commentaires postés dans un jeu de données existant de conversations Reddit mis à disposition par pushshift.io. Nous évaluons nos modèles sur un ensemble de benchmarks de récupération d’information et de récupération de dialogues, obtenant des améliorations substantielles par rapport aux modèles supervisés de référence.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp