HyperAIHyperAI

Command Palette

Search for a command to run...

vor 19 Tagen

Von fünf Dimensionen zu vielen: Große Sprachmodelle als präzise und interpretierbare psychologische Profiler

Yi-Fei Liu Yi-Long Lu Di He Hang Zhang

Von fünf Dimensionen zu vielen: Große Sprachmodelle als präzise und interpretierbare psychologische Profiler

Abstract

Psychologische Konstrukte innerhalb Individuen werden allgemein als miteinander verknüpft angesehen. Wir untersuchten, inwieweit und auf welche Weise Große Sprachmodelle (Large Language Models, LLMs) die korrelative Struktur menschlicher psychologischer Merkmale aus minimalen quantitativen Eingaben modellieren können. Dazu ließen wir verschiedene LLMs mit Antworten aus dem Big-Five-Persönlichkeits-Inventar von 816 menschlichen Probanden agieren, indem sie die Antworten auf neun weitere psychologische Skalen nachahmten. Die LLMs zeigten eine bemerkenswerte Genauigkeit bei der Abbildung der menschlichen psychologischen Struktur: Die Korrelationsmuster zwischen den Skalen in den von den Modellen generierten Antworten stimmten stark mit den Mustern aus echten menschlichen Daten überein. Diese Zero-Shot-Leistung übertraf signifikant Vorhersagen, die auf semantischer Ähnlichkeit basierten, und näherte sich der Genauigkeit von maschinellen Lernalgorithmen an, die direkt auf dem Datensatz trainiert wurden. Die Analyse der Denkspuren ergab, dass LLMs einen systematischen zweistufigen Prozess nutzen: Zunächst transformieren sie die rohen Big-Five-Antworten durch Informationsauswahl und Kompression in natürlichsprachige Persönlichkeitszusammenfassungen, was einer Erzeugung ausreichender Statistiken entspricht. Anschließend generieren sie die Antworten für die Zielskalen auf der Grundlage von Schlussfolgerungen aus diesen Zusammenfassungen. Bei der Informationsauswahl identifizieren die LLMs dieselben zentralen Persönlichkeitsfaktoren wie trainierte Algorithmen, unterscheiden jedoch nicht zwischen der Bedeutung einzelner Items innerhalb der Faktoren. Die resultierenden komprimierten Zusammenfassungen sind keine einfachen Redundanzen, sondern erfassen synergistische Informationen – ihre Hinzufügung zu den ursprünglichen Skalen verbessert die Übereinstimmung der Vorhersagen und deutet darauf hin, dass sie emergente, zweite Ordnung beschreibende Muster der Interaktion zwischen Merkmalen kodieren. Unsere Ergebnisse zeigen, dass LLMs durch einen Prozess der Abstraktion und Schlussfolgerung präzise Vorhersagen individueller psychologischer Merkmale aus minimalem Datenmaterial liefern können. Dies eröffnet nicht nur ein leistungsfähiges Werkzeug für psychologische Simulationen, sondern liefert zudem wertvolle Einblicke in die emergenten Schlussfolgerungsfähigkeiten dieser Modelle.

KI mit KI entwickeln

Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.

KI-Co-Coding
Sofort einsatzbereit GPUs
Beste Preise
Jetzt starten

Hyper Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Von fünf Dimensionen zu vielen: Große Sprachmodelle als präzise und interpretierbare psychologische Profiler | Forschungsarbeiten | HyperAI