HyperAIHyperAI

Command Palette

Search for a command to run...

Skalierung von Satz-Embeddings mit großen Sprachmodellen

Ting Jiang Shaohan Huang Zhongzhi Luan Deqing Wang Fuzhen Zhuang

Zusammenfassung

Große Sprachmodelle (LLMs) haben in letzter Zeit erhebliches Interesse geweckt. Mittels In-Context-Lernen erreichen LLMs beeindruckende Ergebnisse bei verschiedenen Aufgaben im Bereich der natürlichen Sprache. Die Anwendung von LLMs auf Satz-Embeddings bleibt jedoch ein aktives Forschungsfeld. In dieser Arbeit stellen wir eine auf In-Context-Lernen basierende Methode vor, die darauf abzielt, die Leistung von Satz-Embeddings zu verbessern. Unser Ansatz beinhaltet die Anpassung der bisherigen promptbasierten Darstellungsmethode für autoregressive Modelle, die Konstruktion einer Demonstrationsmenge, die es LLMs ermöglicht, In-Context-Lernen durchzuführen, sowie die Skalierung der LLMs auf verschiedene Modellgrößen. Durch umfangreiche Experimente zeigt sich, dass In-Context-Lernen es LLMs ermöglicht, hochwertige Satz-Embeddings ohne jegliche Feinabstimmung zu generieren. Dabei erreichen die Modelle eine Leistung, die mit aktuellen Contrastive-Learning-Methoden vergleichbar ist. Bei der Skalierung der Modellgröße stellen wir fest, dass eine Skalierung auf mehr als zehn Milliarden Parameter die Leistung bei Aufgaben zur semantischen Textähnlichkeit (STS) beeinträchtigt. Dennoch übertrifft das größte Modell alle anderen Varianten und erreicht eine neue SOTA-Leistung bei Transfer-Aufgaben. Außerdem feinjustieren wir LLMs mit der aktuellen Contrastive-Learning-Methodik, wobei das 2,7-Billionen-Parameter-Modell OPT, das unsere promptbasierte Methode integriert, die Leistung des 4,8-Billionen-Parameter-Modells ST5 übertrifft und neue SOTA-Ergebnisse bei STS-Aufgaben erzielt. Unser Code ist unter https://github.com/kongds/scaling_sentemb verfügbar.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Skalierung von Satz-Embeddings mit großen Sprachmodellen | Paper | HyperAI