Command Palette
Search for a command to run...
Die Messung und Minderung einer übermäßigen Abhängigkeit ist notwendig für den Aufbau menschenkompatibler KI
Lujain Ibrahim Katherine M. Collins Sunnie S. Y. Kim Anka Reuel Max Lamparth et al

Abstract
Große Sprachmodelle (LLMs) zeichnen sich gegenüber früheren Technologien dadurch aus, dass sie als kooperative „Denkpartner“ agieren und natürlichsprachliche Interaktionen flüssiger gestalten können. Da LLMs zunehmend entscheidungsrelevante Prozesse in vielfältigen Bereichen – von der Gesundheitsversorgung bis hin zu persönlichen Beratungen – beeinflussen, wächst das Risiko einer Überrelianz, also der Nutzung von LLMs über ihre tatsächlichen Fähigkeiten hinaus. In diesem Positionspapier wird argumentiert, dass die Messung und Minderung von Überrelianz zentrale Aufgabe der Forschung und Implementierung von LLMs werden muss. Zunächst fassen wir die Risiken der Überrelianz auf individueller und gesellschaftlicher Ebene zusammen, darunter schwerwiegende Fehler, governance-technische Herausforderungen sowie kognitive Deskillings. Anschließend untersuchen wir Merkmale von LLMs, Gestaltungselemente von Systemen sowie kognitive Verzerrungen der Nutzer, die gemeinsam ernsthafte und einzigartige Bedenken hinsichtlich der Überrelianz in der Praxis aufwerfen. Wir analysieren zudem historische Ansätze zur Messung der Überrelianz, identifizieren drei wesentliche Lücken und schlagen drei vielversprechende Ansatzrichtungen zur Verbesserung der Messung vor. Abschließend präsentieren wir Strategien zur Minderung dieser Risiken, die die KI-Forschungsgemeinschaft verfolgen kann, um sicherzustellen, dass LLMs menschliche Fähigkeiten ergänzen und nicht untergraben.
KI mit KI entwickeln
Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.