HyperAIHyperAI

Command Palette

Search for a command to run...

RankRAG: Die Vereinheitlichung von Kontext-Ranking mit retrieval-augmented Generation in LLMs

Yue Yu Wei Ping Zihan Liu Boxin Wang Jiaxuan You Chao Zhang Mohammad Shoeybi Bryan Catanzaro

Zusammenfassung

Große Sprachmodelle (LLMs) nutzen in der Regel die top-k-Kontexte eines Retrievers in der retrievalverstärkten Generierung (RAG). In dieser Arbeit stellen wir einen neuartigen Framework für die Anweisungsfine-Tuning, namens RankRAG, vor, der ein einzelnes LLM für zwei Aufgaben gleichzeitig anpassen lässt: Kontextranking und Antwortgenerierung in RAG. Insbesondere zeigen die an Anweisungen fine-tunenden LLMs überraschend gute Leistungen, wenn lediglich ein kleiner Anteil an Ranking-Daten in das Training integriert wird, und überflügeln dabei bestehende Spezialmodelle für Ranking, einschließlich derselben LLMs, die ausschließlich auf einer großen Menge an Ranking-Daten fine-tuned wurden. Für die Generierung vergleichen wir unser Modell mit zahlreichen starken Baselines, darunter GPT-4-0613, GPT-4-turbo-2024-0409 sowie ChatQA-1.5, einem Open-Source-Modell mit aktuell bester Leistung auf RAG-Benchmarks. Konkret übertrifft unser Llama3-RankRAG das Modell Llama3-ChatQA-1.5 sowie die GPT-4-Modelle signifikant auf neun wissensintensiven Benchmarks. Zudem erzielt es ohne Anweisungsfine-Tuning auf biomedizinischen Daten vergleichbare Ergebnisse wie GPT-4 auf fünf RAG-Benchmarks im biomedizinischen Bereich, was seine hervorragende Fähigkeit zur Generalisierung auf neue Domänen unterstreicht.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp