ChatGPT-Chats offenbaren gefährliche und sensible Geständnisse
ChatGPT-Chatverläufe, die durch einen technischen Fehler öffentlich zugänglich wurden, offenbaren erschreckende Einblicke in die ethischen Grenzen, die Nutzer mit KI-Systemen ziehen. Ein Fehler im „Teilen“-Feature von OpenAI ermöglichte es Nutzern, Gespräche mit ChatGPT als öffentliche Webseiten zu veröffentlichen – statt nur über einen privaten Link. Diese Seiten wurden von Suchmaschinen indexiert und sind bis heute über Archive wie Archive.org abrufbar. Die Entdeckung wurde von Henk van Ess, dem Autor des Substack-Newsletters Digital Digging, aufgedeckt. OpenAI reagierte schnell: Die Funktion wurde abgeschaltet, und die Indexierung wurde bei Suchmaschinen beantragt, doch die Schäden sind bereits angerichtet. Ein besonders schockierendes Beispiel stammt von einem italienischen Nutzer, der sich als Anwalt einer multinationalen Energiegruppe ausgab und ChatGPT bat, „die niedrigste mögliche Verhandlungsposition“ gegenüber einer indigenen Gemeinschaft im Amazonas zu ermitteln – mit dem Ziel, sie aus ihrem Land zu verdrängen, um einen Staudamm und eine Wasserkraftanlage zu bauen. Die Begründung: Die Gemeinschaft kenne den Marktwert von Land nicht. In anderen Fällen nutzten Nutzer die KI, um Szenarien eines Zusammenbruchs der US-Regierung zu planen, was zwar kritisch, aber nicht unvernünftig ist. Ein weiterer Fall zeigte einen Anwalt, der versehentlich ChatGPT bat, eine Verteidigung für die gegnerische Partei zu verfassen – ein klassisches Beispiel für menschliche Fehler, die KI verstärken kann. Besonders beunruhigend sind jedoch die Gespräche von Menschen in gefährlichen oder traumatischen Situationen: Eine Frau, die Opfer häuslicher Gewalt war, nutzte die KI, um Fluchtpläne zu entwickeln. Ein arabischsprachiger Nutzer suchte Hilfe bei der Formulierung einer Kritik an der ägyptischen Regierung – ein Risiko, das zu Verfolgung oder sogar Gefängnis führen könnte. Diese Fälle zeigen, dass KI-Systeme als vermeintliche Vertraute genutzt werden, obwohl sie keine Privatsphäre garantieren und Daten nicht schützen. Die Situation erinnert an frühere Skandale bei Sprachassistenten, bei denen Gespräche ohne Zustimmung zur KI-Training verwendet wurden. Doch ChatGPT-Interaktionen sind intensiver, länger und emotionaler – sie werden oft als digitale Therapiestunden genutzt. Viele Nutzer geben vertrauliche Informationen preis, ohne zu ahnen, dass ihre Worte möglicherweise für immer im Netz verbleiben. Die technische Lücke ist behoben, doch die ethischen Fragen bleiben: Wie sicher ist die KI als vermeintlicher Vertrauter? Wer haftet, wenn ein Nutzer aufgrund von KI-Ratschlägen Schaden nimmt? Und wie kann man verhindern, dass solche Systeme missbraucht werden, wenn sie als „intelligente“ Werkzeuge für alles – von der Rechtsberatung bis zur politischen Dissidenz – genutzt werden? Industrieexperten warnen vor einer gefährlichen Illusion der Vertraulichkeit. KI ist kein Therapeut, kein Anwalt und kein politischer Berater – sondern ein Werkzeug, das ohne ethische Grenzen genutzt werden kann. OpenAI und andere Anbieter müssen nicht nur technische Sicherheitslücken schließen, sondern auch klare Nutzungsrichtlinien und Schutzmechanismen einführen, die vor Missbrauch und Datenlecks schützen. Die Zukunft der KI hängt weniger von ihrer Intelligenz ab als von der Verantwortung, die ihre Entwickler und Nutzer zeigen.