Wie lernt AI mit Unsicherheit umzugehen?
In einer Welt, die zunehmend von künstlicher Intelligenz geprägt ist, wird die Frage, wie Maschinen unter unsicheren Bedingungen Entscheidungen treffen, immer drängender. Willie Neiswanger, Assistenzprofessor für Informatik an der USC Viterbi School of Engineering und der USC School of Advanced Computing, hat gemeinsam mit Studenten ein neues Rahmenwerk für große Sprachmodelle entwickelt, das klassische Entscheidungstheorie und Nutzentheorie kombiniert, um die Fähigkeit von KI, Unsicherheiten zu bewältigen, erheblich zu verbessern. Seine Forschung wurde auf der Konferenz International Conference on Learning Representations 2025 vorgestellt und auf arXiv veröffentlicht. Neiswanger betont, dass menschliche und künstliche Intelligenz unterschiedliche Stärken besitzen. Während menschliche Experten ihre Unsicherheiten ausdrücken und die Grenzen ihres Wissens erkennen können, generieren große Sprachmodelle oft mit hoher Sicherheit Antworten, auch wenn sie auf unvollständigen Daten basieren. Seine Arbeit zielt darauf ab, die Stärken von LLMs zu nutzen, aber gleichzeitig menschliche Urteilsfähigkeit und Präferenzen in den Entscheidungsprozess einzubeziehen. Die Herausforderung, mit Unsicherheit umzugehen, ist ein zentraler Punkt in der KI-Forschung. Derzeit haben LLMs Schwierigkeiten, die Balance zwischen Unsicherheit, Beweisen und der Vorhersage von Ergebnissen sowie zwischen Nutzerpräferenzen zu finden. Neiswanger forscht über Entscheidungsverfahren unter Unsicherheit, insbesondere in sequenziellen Entscheidungsszenarien, bei denen Entscheidungen über die Zeit getroffen werden und sich gegenseitig beeinflussen. Er untersucht Anwendungen wie die Optimierung von Systemen, die Planung von Experimenten und Entscheidungen in Wissenschaft und Ingenieurwesen. Sein Forschungsprojekt konzentriert sich darauf, LLMs beizubringen, Unsicherheiten zu quantifizieren und ihre Vorhersagen mit messbaren Vertrauenswerten zu versehen. Das System identifiziert relevante unsichere Variablen und weist Sprachmodellen Wahrscheinlichkeitsscores zu, die dann in numerische Wahrscheinlichkeiten umgewandelt werden. Dies ermöglicht präzisere Entscheidungen und bessere Vorhersagen, auch bei unvollständigen Daten. In der Praxis könnte das System in Geschäftskontexten strategische Planung verbessern, indem es realistischere Einschätzungen von Marktrisiken und Wettbewerbsdynamiken liefert. In der Medizin könnte es Diagnosehilfe oder Behandlungsplanung unterstützen, indem es Ärzten hilft, Unsicherheiten bei Symptomen und Testergebnissen zu berücksichtigen. In persönlichen Entscheidungssituationen könnte es Nutzern bessere, relevante Ratschläge geben. Ein besonderer Fokus liegt auf der Berücksichtigung menschlicher Präferenzen. Durch die explizite Modellierung von Interessen der Beteiligten und die Einbeziehung ihrer Wertvorstellungen in die mathematische Bewertung von Ergebnissen produziert das System nicht nur technisch optimale Empfehlungen, sondern auch praktisch akzeptable Entscheidungen. Zukünftig will Neiswanger das Rahmenwerk auf weitere Anwendungsbereiche ausweiten, wie beispielsweise Operations Research, Logistik und Gesundheitswesen. Ein weiteres Ziel ist die Verbesserung der menschlichen Nachvollziehbarkeit, indem Interfaces entwickelt werden, die Nutzern einen klaren Einblick in die Entscheidungsgründe von LLMs ermöglichen. Einschätzung der Branche: Neiswangers Forschung bietet einen vielversprechenden Ansatz, um KI-Systeme in unsicheren Umgebungen zuverlässiger und menschlicher zu machen. Sein Rahmenwerk könnte in der Praxis zu besseren Entscheidungshilfen führen, besonders in kritischen Bereichen wie Medizin oder Wirtschaft. Die USC Viterbi School of Engineering ist eine führende Forschungsstätte in der Informatik und KI, wodurch Neiswangers Arbeit noch mehr Aufmerksamkeit erregt. Die Integration von menschlichen Präferenzen in KI-Entscheidungen ist ein Schlüsselthema, um die Akzeptanz und Effektivität von KI-Systemen zu erhöhen.