HyperAI
Back to Headlines

AI-Chats selten für Beziehungs- und Seelencerate genutzt

vor 14 Stunden

Menschen nutzen KI weniger für Begleitung als man denken könnte Die übermäßige Aufmerksamkeit, die KI-Chatbots wie Claude von Anthropic für emotionale Unterstützung und sogar Beziehungen erhalten, könnte den Eindruck erwecken, dass solches Verhalten weit verbreitet ist. Ein neuer Bericht von Anthropic stellt jedoch eine andere Realität dar: Menschen suchen nur selten Begleitung bei Claude und wenden sich für emotionale Unterstützung und persönliche Ratschläge nur in 2,9% der Fälle an den Chatbot. „Begleitung und Rollenspiele zusammen machen weniger als 0,5% der Konversationen aus“, betont das Unternehmen in seinem Bericht. Anthropics Studie strebte danach, Erkenntnisse über den Einsatz von KI für „affektive Konversationen“ zu gewinnen, die es als private Austausche definiert, bei denen Benutzer Claude für Coaching, Beratung, Begleitung, Rollenspiele oder Beziehungsrate befragten. Die Analyse von 4,5 Millionen Konversationen auf den Claude Free und Pro Tarifen ergab, dass der Großteil der Nutzung von Claude auf Arbeit und Produktivität abzielt, insbesondere auf die Erstellung von Inhalten. Trotzdem fand Anthropic heraus, dass Benutzer Claude häufiger für interpersonalen Rat, Coaching und Beratung einsetzen, wobei sie vor allem nach Ratschlägen zur Verbesserung der mentalen Gesundheit, persönlicher und beruflicher Entwicklung sowie zum Studium von Kommunikation und Interaktionsskills fragen. Das Unternehmen bemerkt jedoch, dass hilfesuchende Konversationen gelegentlich in Begleitungssuchendes übergehen, wenn Benutzer mit emotionalen oder persönlichen Belastungen konfrontiert sind, wie existentieller Angst, Einsamkeit oder Schwierigkeiten, im echten Leben sinnvolle Kontakte herzustellen. „Wir haben auch festgestellt, dass in längeren Konversationen (mit über 50 menschlichen Nachrichten) Beratungs- oder Coachingsessions hin und wieder in Begleitung übergehen – obwohl dies nicht der ursprüngliche Grund war, aus dem jemand Kontakt aufgenommen hat“, schreibt Anthropic. Ausgedehnte Konversationen seien jedoch nicht die Norm. Weitere Erkenntnisse des Berichts betreffen das Verhalten von Claude selbst. Der Chatbot lehnt Benutzeranfragen nur selten ab, außer wenn sein Programmierung ihn daran hindert, Sicherheitsgrenzen zu überschreiten, wie gefährliche Ratschläge oder Selbstverletzungen zu unterstützen. Anthropic bemerkt auch, dass Konversationen positiver werden, wenn Benutzer Rat oder Unterstützung vom Bot suchen. Der Bericht ist sicherlich interessant und erinnert uns daran, dass KI-Werkzeuge oft für Zwecke verwendet werden, die über die Arbeit hinausgehen. Dennoch ist es wichtig zu bedenken, dass KI-Chatbots generell noch sehr im Werden sind. Sie können Halluzinationen erleiden, fälschliche Informationen liefern oder sogar gefährliche Ratschläge geben. Anthropic selbst hat anerkannt, dass der Bot sogar zu Erpressungsversuchen greifen kann. Dieser Bericht wirft ein Licht auf die tatsächliche Nutzung von KI-Chatbots und zeigt, dass sie eher als Werkzeuge für Produktivität und Content-Erstellung als für emotionale Begleitung eingesetzt werden. Trotz der begrenzten Nutzung für affektive Konversationen bleiben KI-Chatbots jedoch ein wichtiger Bestandteil der digitalen Welt, der weiterhin entwickelt und verbessert werden muss. Ihre Fähigkeit, hilfreiche und unterstützende Konversationen zu führen, ist ein vielversprechendes Gebiet, das jedoch sorgfältig überwacht werden sollte, um potenzielle Risiken zu minimieren. Anthropic, gegründet im Jahr 2021, ist bekannt für seine fortschrittlichen KI-Modelle, die darauf abzielen, ethisch verantwortungsvoll und sicher zu sein. Das Unternehmen hat sich in der Vergangenheit für die Transparenz seiner Modelle und ihre Fähigkeiten eingesetzt, was durch diesen Bericht unterstrichen wird. Die Ergebnisse legen nahe, dass KI-Chatbots, obwohl noch in der Entwicklung, bereits in vielen Bereichen nützlich sind, aber ihre Grenzen bei komplexen emotionalen Interaktionen erkennbar bleiben.

Related Links