Studie: KI-Modelle zeigen kulturelle Unterschiede bei Chinesisch und Englisch
Studie zeigt unterschiedliche kulturelle Tendenzen von großen Sprachmodellen bei englischen und chinesischen Anfragen Große Sprachmodelle (LLMs) wie das von OpenAI verwendete Modell für die konversationsfähige Plattform ChatGPT sind weltweit weit verbreitet und werden für diverse Zwecke zur Informationsgewinnung und Inhaltsgenerierung genutzt. Aufgrund ihrer wachsenden Beliebtheit versuchen einige Forscher, den Umfang zu ergründen, inwiefern der von diesen Modellen generierte Inhalt nützlich, unvoreingenommen und akkurat ist. Bislang haben jedoch nur wenige Studien die Ideen und Inhalte verglichen, die diese Modelle in verschiedenen Sprachen erzeugen. Forscher der Massachusetts Institute of Technology (MIT) und der Tongji University haben eine Studie durchgeführt, um herauszufinden, ob LLMs in ihren Antworten auf Englisch und Chinesisch verschiedene kulturelle Tendenzen zeigen. Ihre Ergebnisse, veröffentlicht im "Nature Human Behaviour", belegen, dass die generativen Modelle GPT und ERNIE unterschiedliche kulturelle Merkmale in den von ihnen in Chinesisch und Englisch generierten Texten ausprägen. "Wir zeigen, dass generative KI-Modelle, die auf textuellen Daten trainiert wurden, die kulturell geprägt sind, kulturelle Tendenzen aufweisen, wenn sie in verschiedenen menschlichen Sprachen verwendet werden," schreiben Jackson G. Lu, Lesley Luyang Song und Lu Doris Zhang in ihrer Arbeit. "Unser Fokus liegt auf zwei grundlegenden Konstrukten der kulturellen Psychologie: sozialer Ausrichtung und kognitivem Stil." Um zu evaluieren, inwieweit LLMs kulturell neutral sind, analysierten Lu, Song und Zhang eine große Menge von Antworten, die von GPT und ERNIE, zwei der beliebtesten generativen Modelle, in Englisch und Chinesisch generiert wurden. GPT wird vor allem in den USA und verschiedenen europäischen und mittleren Ostländern genutzt, während ERNIE hauptsächlich in China verwendet wird. Die Forscher untersuchten zwei Hauptaspekte der kulturellen und psychologischen Ausrichtung der Antworten der Modelle in beiden Sprachen. Der erste Aspekt ist die soziale Ausrichtung, die sich darauf bezieht, wie Menschen mit anderen in Beziehung treten (d.h., mehr auf Interdependenz und Gemeinschaft oder Unabhängigkeit und individuelle Handlungsmöglichkeiten fokussieren). Der zweite Aspekt betrifft den kognitiven Stil, d.h., wie die Modelle Informationen verarbeiten (holistisch oder analytisch). Numerous linguistische und kulturelle Studien haben konsistent gezeigt, dass ostasiatische Kulturen tendenziell durch eine stärkere interdependente soziale Ausrichtung und einen holistischen kognitiven Stil geprägt sind, im Gegensatz zu westlichen Kulturen. "Wir analysieren GPTs Antworten auf eine große Reihe von Maßstäben sowohl in Chinesisch als auch in Englisch," schreiben die Forscher. "Wenn GPT in Chinesisch (im Vergleich zu Englisch) verwendet wird, zeigt es eine stärker interdependente (im Vergleich zu einer unabhängigen) sozialen Ausrichtung und einen stärker holistischen (im Vergleich zu einem analytischen) kognitiven Stil. Wir replizieren diese kulturellen Tendenzen in ERNIE, einem populären generativen KI-Modell in China." Die gesammelten Daten legen nahe, dass die von LLMs in verschiedenen Sprachen generierten Antworten nicht kulturell neutral sind, sondern spezifische kulturelle Werte und Denkmuster vermitteln. In ihrer Arbeit illustrieren die Forscher außerdem, wie diese kulturellen Tendenzen die Benutzererfahrung beeinflussen können. Zum Beispiel ist GPT, wenn es in Chinesisch (im Vergleich zu Englisch) verwendet wird, eher dazu geneigt, Werbeanzeigen mit einer interdependente sozialen Ausrichtung zu empfehlen. "Explorative Analysen deuten darauf hin, dass kulturelle Prompts (zum Beispiel, wenn generative KI gebeten wird, die Rolle eines Chinesen einzunehmen) diese kulturellen Tendenzen anpassen können," schreiben Lu, Song und Zhang. "Wir haben gezeigt, dass die Verwendung von kulturellen Prompts zu Inhalten führt, die den gegebenen Anweisungen entsprechen." Zusätzlich zu der Enthüllung der kulturellen Tendenzen von GPT und ERNIE schlagen Lu, Song und Zhang eine mögliche Strategie zur Milderung oder sorgfältigen Anpassung dieser Tendenzen vor. Sie haben demonstriert, dass die explizite Aufforderung an das Modell, die Perspektive einer Person aus einer bestimmten Kultur einzunehmen, zu inhaltsbezogenen Anpassungen führt. Die Ergebnisse dieser Studie könnten in Zukunft andere Computerwissenschaftler und Verhaltensforscher dazu inspirieren, die kulturellen Werte und Denkmuster, die von computergenerierten Modellen ausgehen, näher zu untersuchen. Des Weiteren könnte dies den Weg ebnen für die Entwicklung von Modellen, die kulturell neutraler sind oder Benutzer aktiv fragen, welche kulturellen Werte ein generierter Text widerspiegeln soll. Industry-Insider bewerten diese Erkenntnisse als bedeutend, da sie die Notwendigkeit unterstreichen, die kulturellen Implikationen von KI-Modellen zu berücksichtigen. Die Fähigkeit, kulturelle Tendenzen durch gezielte Prompts zu beeinflussen, könnte die Anwendbarkeit dieser Modelle in globalen Kontexten erheblich verbessern. både OpenAI, das Unternehmen hinter ChatGPT, hat bisher noch keine offizielle Stellungnahme zu den Ergebnissen der Studie abgegeben. Allerdings ist zu erwarten, dass die Erkenntnisse in die weitere Entwicklung und Optimierung der Modelle einfließen werden.