HyperAIHyperAI

Command Palette

Search for a command to run...

SGPT: GPT-Satz-Embeddings für semantische Suche

Niklas Muennighoff

Zusammenfassung

Decoder-Transformers haben ihre Skala weiterhin erhöht und erreichen nun Hunderte von Milliarden Parameter. Aufgrund ihrer Größe erzielen dieselben Decoder state-of-the-art-Ergebnisse bei verschiedenen Sprachaufgaben mittels Prompting oder Fine-Tuning. Dennoch bleiben diese großen Foundation-Modelle für verwandte Gebiete wie semantische Suche und Satz-Embeddings unbrauchbar. Dies verhindert möglicherweise neue state-of-the-art-Ergebnisse und zwingt Organisationen, separate Modelle zu trainieren und zu pflegen. Hierfür schlagen wir SGPT vor, Decoder zur Erzeugung von Satz-Embeddings und semantischer Suche mittels Prompting oder Fine-Tuning zu nutzen. Mit 5,8 Milliarden Parametern übertrifft SGPT die bisher beste Methode für Satz-Embeddings um 7 % und erreicht dabei eine bessere Leistung als eine gleichzeitige Methode mit 175 Milliarden Parametern, gemessen am BEIR-Suchbenchmark. Der Code, die Modelle und die Ergebnisdateien sind frei zugänglich unter https://github.com/Muennighoff/sgpt.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp