Vertrauen lernen: Bayessche Anpassung an wechselnde Zuverlässigkeit von Vorschlaggebern bei sequenziellen Entscheidungsprozessen
Dylan M. Asmar Mykel J. Kochenderfer

Abstract
Autonome Agenten, die sequenziellen Entscheidungsprozessen unter Unsicherheit unterworfen sind, können von externen Handlungsvorschlägen profitieren, die wertvolle Anleitung bieten, deren Zuverlässigkeit jedoch inhärent variabel ist. Bestehende Ansätze zur Integration solcher Empfehlungen gehen typischerweise von statischen und bekannten Qualitätsparametern der Vorschlagsgeber aus, was ihre praktische Anwendung einschränkt. Wir stellen einen Rahmen vor, der dynamisch lernt und sich an wechselnde Zuverlässigkeit von Vorschlagsgebern in teilweise beobachtbaren Umgebungen anpasst. Zunächst integrieren wir die Qualität der Vorschlagsgeber direkt in die Glaubensrepräsentation des Agents, wodurch dieser durch bayessche Inferenz über die Typen der Vorschlagsgeber seine Abhängigkeit von Empfehlungen selbst inferieren und anpassen kann. Zweitens führen wir eine explizite „Nachfrage“-Aktion ein, die es dem Agenten ermöglicht, strategisch zu entscheiden, wann er Empfehlungen einholt – dabei wird das Informationsgewinn gegen die Kosten der Beschaffung abgewogen. Experimentelle Evaluierungen zeigen eine robuste Leistung bei unterschiedlichen Vorschlagsqualitäten, eine Anpassung an sich verändernde Zuverlässigkeit sowie eine strategische Verwaltung der Anforderung von Empfehlungen. Diese Arbeit legt eine Grundlage für adaptive Mensch-Agenten-Kooperation, indem sie die Unsicherheit von Empfehlungen in unsicheren Umgebungen adressiert.
KI mit KI entwickeln
Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.