Zu agentalen RAG mit tiefem Schließen: Eine Übersicht über RAG-Schließsysteme in LLMs

Retrieval-Augmentierte Generierung (RAG) verbessert die Faktualität großer Sprachmodelle (LLMs), indem sie externes Wissen einfließen lässt. Allerdings stößt sie bei Problemen, die mehrstufige Inferenz erfordern, an ihre Grenzen; umgekehrt neigen rein auf Schließen ausgerichtete Ansätze oft dazu, Fakten zu hallucinieren oder falsch zu gründen. Diese Übersicht vereint beide Strömungen unter einer einheitlichen Perspektive des Schließens und der Retrieval. Zunächst ordnen wir dar, wie fortschrittliches Schließen jede Phase von RAG optimiert (Schlussfolgerungsverstärktes RAG). Anschließend zeigen wir, wie verschiedene Arten von abgerufenem Wissen fehlende Prämissen ergänzt und den Kontext für komplexe Inferenz erweitert (RAG-verstärktes Schließen). Abschließend beleuchten wir neu entstandene Synergien in RAG-Schlussfolgerungs-Frameworks, bei denen (agentische) LLMs Suchvorgänge und Schlussfolgerungen iterativ abwechseln, um Spitzenleistungen in wissensintensiven Benchmarks zu erzielen. Wir kategorisieren Methoden, Datensätze und offene Herausforderungen und skizzieren Forschungspfade hin zu tieferen RAG-Schlussfolgerungssystemen, die effektiver sind, multimodal angepasst werden können, vertrauenswürdig sind und menschenzentriert agieren. Die Zusammenstellung ist unter https://github.com/DavidZWZ/Awesome-RAG-Reasoning verfügbar.