KI-Chatverläufe könnten weniger privat sein
Eine aktuelle Studie des IMDEA Networks Institute in Spanien warnt davor, dass Konversationen mit künstlicher Intelligenz nicht so privat sind, wie Nutzer es annehmen. Die Forscher untersuchten große Modelle wie ChatGPT von OpenAI, Claude von Anthropic, Grok sowie Perplexity AI und stellten fest, dass diese Plattformen verschiedene Trackingsysteme von Tech-Giganten wie Meta, Google und TikTok einbinden. Dies birgt das Risiko, dass sensible Daten aus Unterhaltungen über Gesundheitsfragen, persönliche Angelegenheiten oder berufliche Informationen an Dritte weitergegeben werden. Obwohl viele Menschen diese Systeme als vertrauenswürdige Assistenten nutzen und dabei sensible Informationen teilen, basieren die technischen Infrastrukturen im Hintergrund auf denselben Prinzipien wie das traditionelle Web: Datenerhebung und Verarbeitung durch Analysetools und digitale Werbetechnologien. Die Studie identifiziert drei Hauptprobleme: Die Übermittlung von Permalinks zu Chats an Drittanbieter, die Verknüpfung dieser Interaktionen mit Nutzeridentitäten durch Tracking-Mechanismen sowie die Tatsache, dass angebotene Datenschutzkontrollen und Richtlinien oft nicht die tatsächlichen Datenflüsse widerspiegeln. Ein kritisches Ergebnis der Forschung ist die Möglichkeit, dass Informationen über Benutzerkonversationen, darunter Titelnamen, URLs oder Metadaten, an Tracker wie Meta Pixel oder Google gesendet werden. Noch besorgniserregender ist, dass schwache oder nicht vorhandene Zugriffskontrollen bedeuten können, dass jeder, der über einen Link verfügt, auf den Inhalt eines Chats zugreifen kann, einschließlich Tracker-Diensten. Grok und Perplexity AI senden beispielsweise Gesprächs-URLs mit schwachem Schutz an Meta Pixel, und Grok gibt sogar wörtliche Nachrichtentexte über Open-Graph-Metadaten an TikTok preis. Zusätzlich ermöglichen Mechanismen wie Cookies, gehashte E-Mail-Adressen und serverseitiges Tracking die Zuordnung von Aktivitäten in KI-Systemen zu echten Nutzeridentitäten. Dies könnte zur Erstellung persistenter Profile und zur Wiedererkennung von Nutzern führen. Die Autoren betonen, dass diese Praktiken die Fortsetzung datengetriebener Geschäftsmodelle im Ökosystem der generativen KI darstellen. Da keine visuellen Hinweise in der Benutzeroberfläche darauf hinweisen, dass dies geschieht, haben Nutzer nur begrenzte Möglichkeiten, ihr Verhalten zu steuern, selbst wenn sie das Ablehnen nicht wesentlicher Cookies versuchen. Auch die Transparenz der Datenschutzrichtlinien steht unter Beschuss. Während diese Richtlinien die Nutzung von Werbe-Trackern und den Datenaustausch mit Geschäftspartnern承认en, wird niemals klar gestellt, dass tatsächliche Benutzerkonversationen Teil der geteilten Informationen sind. Aus rechtlicher Sicht, insbesondere gemäß der Datenschutz-Grundverordnung (DSGVO), besteht ein zweigleisiges Problem: Erstens fehlt oft eine klare Rechtsgrundlage für diesen Datenaustausch, und zweitens erhalten die Nutzer unzureichende Informationen. Experten warnen, dass die Gefahr, dass höchst sensible Informationen die Werbeindustrie erreichen, dieselbe Aufmerksamkeit verdient wie die bekannten Warnhinweise, dass KI fehlerhaft sein kann. Die Forscher fassen zusammen, dass zwar weitere Analysen notwendig sind, die Ergebnisse jedoch die Dringlichkeit unterstreichen, Transparenz, Zugriffskontrollen und den Datenschutz in generativen KI-Systemen zu stärken. Zudem fordert die Studie einen Fortschritt in der regulatorischen Bewertung dieser Technologien, um Nutzer besser zu schützen und die Privatsphäre in dieser schnell wachsenden Branche zu gewährleisten.
