OpenAI entfernt ChatGPT-Teilfunktion wegen Datenschutzbedenken
OpenAI hat eine Funktion in ChatGPT zurückgezogen, die es Nutzern ermöglichte, ihre Gespräche mit dem KI-Chatbot für Suchmaschinen wie Google sichtbar zu machen. Der Schritt erfolgte kurz nachdem Kritik aufkam, dass Nutzer versehentlich sensible oder private Informationen preisgeben könnten. Dane Stuckey, Chief Information Security Officer bei OpenAI, gab am Donnerstag in einem Social-Media-Beitrag bekannt, dass die Funktion „eine kurzlebige Experimentierphase“ gewesen sei, um nützliche Gespräche sichtbarer zu machen. Aufgrund der Sicherheits- und Datenschutzrisiken wurde sie jedoch abgeschaltet. Laut Stuckey bot die Funktion zu viel Potenzial für versehentliche Offenlegungen, weshalb OpenAI entschieden habe, das Feature zu streichen. Die Änderung soll bis zum nächsten Morgen für alle Nutzer wirksam werden. Gleichzeitig arbeitet das Unternehmen daran, bereits indizierte Inhalte aus Suchmaschinen zu entfernen. Die Kontroverse wurde durch einen Beitrag der Newsletter-Autorin Luiza Jarovsky ausgelöst, die auf X (ehemals Twitter) aufgezeigt hatte, dass Nutzer durch die Freigabefunktion ihre Gespräche mit ChatGPT öffentlich zugänglich machten – inklusive der Indexierung durch Google. Um eine Veröffentlichung zu ermöglichen, musste der Nutzer explizit ein Kästchen anhaken, um den Chat „entdeckbar“ zu machen, und erhielt eine Warnung, dass der Inhalt in Web-Suchergebnissen erscheinen könnte. Obwohl die Gespräche anonymisiert wurden, um Identifizierung zu verhindern, gab es Bedenken, dass Menschen die Option ohne volle Aufmerksamkeit aktivierten – etwa bei emotionalen oder intimen Themen wie psychischer Belastung, sexueller Belästigung oder therapeutischen Gesprächen. Jarovskys Beiträge enthielten Beispiele aus der Praxis, die die Gefahr einer ungewollten Offenlegung verdeutlichten. Obwohl OpenAI betont, dass die Funktion nur über eine bewusste Handlung aktiviert wurde, zeigte die Reaktion der Nutzer auf sozialen Plattformen, dass die Risiken der menschlichen Fehlerquote hoch waren. Experten kritisierten die Gestaltung der Benutzeroberfläche, die die Folgen der Entscheidung nicht ausreichend kommunizierte. Die Rücknahme des Features unterstreicht OpenAIs zunehmende Bemühungen, Datenschutz und Sicherheit im Fokus zu behalten – besonders in Zeiten, in denen KI-Systeme immer stärker in persönliche Lebensbereiche eindringen. Die Entscheidung wird als Signal für eine vorsichtigere Entwicklung von KI-Features angesehen, bei denen Nutzerkontrolle und Transparenz im Vordergrund stehen müssen.