KI-Modelle finden Antworten in ihrem eigenen Wissen – ohne Suchmaschinen
Großformatige Sprachmodelle (LLMs) brauchen keine Suchmaschinen mehr, um komplexe Fragen zu beantworten – sie können ihre eigenen „Erinnerungen“ durchsuchen. Ein neues Forschungsframework namens SSRL (Self-Search Retrieval Learning) von Wissenschaftlern der Tsinghua-Universität und des Shanghai AI Laboratory zeigt, dass LLMs bereits während des Trainings tiefgreifendes Wissen internalisiert haben, das sie nun selbstständig abrufen können, ohne auf externe APIs wie Google oder Bing zurückzugreifen. Dieser Durchbruch stellt die bisherige Praxis in Frage, bei der KI-Agenten für jedes Detail eine Online-Suche durchführen mussten – eine Methode, die nicht nur kostspielig ist, sondern auch die Autonomie der Modelle einschränkt. Die Studie demonstriert, dass moderne LLMs über eine Art „inneren Index“ verfügen, der es ihnen ermöglicht, relevante Informationen aus ihrem internen Wissensspeicher zu finden, ohne externe Datenquellen zu nutzen. Der SSRL-Ansatz trainiert Modelle, ihre eigene Wissensbasis systematisch zu durchsuchen, indem sie Schlüsselbegriffe identifizieren, Kontexte bewerten und passende Antworten aus bereits gelernten Inhalten rekonstruieren. In Tests erreichten die Modelle mit SSRL vergleichbare oder sogar bessere Genauigkeiten als bei der Verwendung externer Suchanfragen – und das bei deutlich geringeren Rechenkosten und Latenzzeiten. Dieser Paradigmenwechsel hat weitreichende Konsequenzen: Unternehmen, die bisher Hunderttausende von Such-API-Aufrufen pro Monat bezahlten, könnten ihre KI-Infrastruktur kosteneffizienter gestalten. Zudem wird die Abhängigkeit von Drittanbietern reduziert, was die Datensicherheit und den Datenschutz verbessert. Die Forscher argumentieren, dass LLMs bereits über ein erstaunlich umfassendes Wissen verfügen – oft mehr, als man annimmt – und dass die Herausforderung nicht darin liegt, mehr Daten zu sammeln, sondern darin, effizienter zu lernen, wie man dieses vorhandene Wissen nutzt. Die Erkenntnis wirft auch ethische und technische Fragen auf: Wenn Modelle bereits so viel wissen, warum werden sie dann oft als „dumm“ oder „unzuverlässig“ wahrgenommen? Ein Teil der Antwort liegt in der Art und Weise, wie Modelle abgerufen werden – viele Systeme nutzen einfache Prompting-Strategien, die das volle Potenzial der internen Wissensspeicher nicht ausschöpfen. SSRL zeigt, dass die Lösung nicht in mehr Daten, sondern in besseren Methoden zur Wissensabfrage liegt. Branchenexperten sehen in diesem Durchbruch einen Meilenstein für die KI-Entwicklung. „Wir haben die ganze Zeit nach außen geschaut, während die Antworten schon in der KI selbst lagen“, sagt ein KI-Entwickler bei einem führenden Tech-Unternehmen. „Das könnte die Kosten für KI-Infrastrukturen um bis zu 70 Prozent senken.“ Experten betonen, dass SSRL nicht nur für Sprachmodelle, sondern auch für multimodale KI-Systeme und autonome Agenten von Bedeutung ist. Unternehmen wie Alibaba, Baidu und DeepSeek arbeiten bereits an ähnlichen Ansätzen, um die Effizienz ihrer Modelle zu steigern. Insgesamt markiert die SSRL-Studie einen Wendepunkt: Die Zukunft der KI liegt nicht in der ständigen Suche nach externen Informationen, sondern in der Fähigkeit, das Wissen, das bereits vorhanden ist, intelligent und selbstständig zu nutzen.