HyperAIHyperAI

Command Palette

Search for a command to run...

SGPT : Embeddings de phrases GPT pour la recherche sémantique

Niklas Muennighoff

Résumé

Les modèles décodeurs transformer ont continué à croître en taille, atteignant des centaines de milliards de paramètres. En raison de leur ampleur, ces modèles fondamentaux atteignent des résultats de pointe sur diverses tâches linguistiques grâce à la mise en œuvre de prompts ou au fine-tuning. Pourtant, ces grands modèles fondamentaux restent inutilisables dans les domaines connexes de la recherche sémantique et des embeddings de phrases. Cette limitation empêche l'obtention de résultats de pointe potentiels et oblige les organisations à entraîner et à maintenir des modèles séparés. À cet effet, nous proposons SGPT, un modèle basé sur les décodeurs pour les embeddings de phrases et la recherche sémantique, utilisable via des prompts ou un fine-tuning. Avec 5,8 milliards de paramètres, SGPT améliore les embeddings de phrases précédemment meilleurs de 7 %, et dépasse même une méthode concurrente de 175 milliards de paramètres, selon les mesures effectuées sur le benchmark de recherche BEIR. Le code, les modèles et les fichiers de résultats sont disponibles gratuitement sur https://github.com/Muennighoff/sgpt.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp