SGPT : Embeddings de phrases GPT pour la recherche sémantique

Les modèles décodeurs transformer ont continué à croître en taille, atteignant des centaines de milliards de paramètres. En raison de leur ampleur, ces modèles fondamentaux atteignent des résultats de pointe sur diverses tâches linguistiques grâce à la mise en œuvre de prompts ou au fine-tuning. Pourtant, ces grands modèles fondamentaux restent inutilisables dans les domaines connexes de la recherche sémantique et des embeddings de phrases. Cette limitation empêche l'obtention de résultats de pointe potentiels et oblige les organisations à entraîner et à maintenir des modèles séparés. À cet effet, nous proposons SGPT, un modèle basé sur les décodeurs pour les embeddings de phrases et la recherche sémantique, utilisable via des prompts ou un fine-tuning. Avec 5,8 milliards de paramètres, SGPT améliore les embeddings de phrases précédemment meilleurs de 7 %, et dépasse même une méthode concurrente de 175 milliards de paramètres, selon les mesures effectuées sur le benchmark de recherche BEIR. Le code, les modèles et les fichiers de résultats sont disponibles gratuitement sur https://github.com/Muennighoff/sgpt.