HyperAIHyperAI
vor einem Monat

Zu agentalen RAG mit tiefem Schließen: Eine Übersicht über RAG-Schließsysteme in LLMs

Yangning Li, Weizhi Zhang, Yuyao Yang, Wei-Chieh Huang, Yaozu Wu, Junyu Luo, Yuanchen Bei, Henry Peng Zou, Xiao Luo, Yusheng Zhao, Chunkit Chan, Yankai Chen, Zhongfen Deng, Yinghui Li, Hai-Tao Zheng, Dongyuan Li, Renhe Jiang, Ming Zhang, Yangqiu Song, Philip S. Yu
Zu agentalen RAG mit tiefem Schließen: Eine Übersicht über RAG-Schließsysteme in LLMs
Abstract

Retrieval-Augmentierte Generierung (RAG) verbessert die Faktualität großer Sprachmodelle (LLMs), indem sie externes Wissen einfließen lässt. Allerdings stößt sie bei Problemen, die mehrstufige Inferenz erfordern, an ihre Grenzen; umgekehrt neigen rein auf Schließen ausgerichtete Ansätze oft dazu, Fakten zu hallucinieren oder falsch zu gründen. Diese Übersicht vereint beide Strömungen unter einer einheitlichen Perspektive des Schließens und der Retrieval. Zunächst ordnen wir dar, wie fortschrittliches Schließen jede Phase von RAG optimiert (Schlussfolgerungsverstärktes RAG). Anschließend zeigen wir, wie verschiedene Arten von abgerufenem Wissen fehlende Prämissen ergänzt und den Kontext für komplexe Inferenz erweitert (RAG-verstärktes Schließen). Abschließend beleuchten wir neu entstandene Synergien in RAG-Schlussfolgerungs-Frameworks, bei denen (agentische) LLMs Suchvorgänge und Schlussfolgerungen iterativ abwechseln, um Spitzenleistungen in wissensintensiven Benchmarks zu erzielen. Wir kategorisieren Methoden, Datensätze und offene Herausforderungen und skizzieren Forschungspfade hin zu tieferen RAG-Schlussfolgerungssystemen, die effektiver sind, multimodal angepasst werden können, vertrauenswürdig sind und menschenzentriert agieren. Die Zusammenstellung ist unter https://github.com/DavidZWZ/Awesome-RAG-Reasoning verfügbar.

Zu agentalen RAG mit tiefem Schließen: Eine Übersicht über RAG-Schließsysteme in LLMs | Neueste Forschungsarbeiten | HyperAI