AI-Privatsphäre: Le Chat führt, Meta AI schlechteste Note
Generative KI und Datenschutz sind die besten Feinde - eine neue Studie bewertet die Besten und Schlechtesten Die meisten Anbieter von generativer KI nutzen Nutzerdaten, um ihre Chatbots zu trainieren. Dabei greifen sie auf öffentliche oder private Daten zurück. Einige Dienste sind weniger invasiv und flexibler im Sammeln von Nutzerdaten, andere weniger. Eine neue Studie des Datendelete-Dienstes Incogni untersucht, welche KI-Dienste am besten und am schlechtesten den Datenschutz respektieren. Incogni hat für seinen Bericht "Gen AI and LLM Data Privacy Ranking 2025" neun populäre generative KI-Services anhand von 11 verschiedenen Kriterien evaluiert. Diese Kriterien beantworten Fragen wie: Welche Daten werden verwendet, um die Modelle zu trainieren? Können Nutzergespräche für das Training verwendet werden? Können Eingaben an Nicht-Anbieter oder andere angemessene Entitäten weitergegeben werden? Kann persönliche Nutzerinformationen aus dem Trainingsdatensatz entfernt werden? Ist es klar, ob Eingaben für das Training verwendet werden? Ist es einfach, Informationen über das Training der Modelle zu finden? Gibt es eine klare Datenschutzerklärung für die Datensammlung? Wie verständlich ist die Datenschutzerklärung? Aus welchen Quellen werden Nutzerdaten gesammelt? Wird die Daten mit Drittanbietern geteilt? Welche Daten sammeln die KI-Apps? Zu den evaluierten Anbietern und KIs gehören Le Chat von Mistral AI, ChatGPT von OpenAI, Grok von xAI, Claude von Anthropic, Pi von Inflection AI, DeepSeek, Copilot von Microsoft, Gemini von Google und Meta AI. Jede KI schnitt bei einigen Fragen gut ab, bei anderen weniger gut. Le Chat von Mistral AI wurde als der datenschutzfreundlichste KI-Dienst ausgezeichnet. Obwohl es in der Transparenz einige Punkte verlor, schied es insgesamt positiv aus. Die Datensammlung ist begrenzt, und es erzielte hohe Punkte in anderen KI-spezifischen Datenschutzfragen. ChatGPT von OpenAI belegte den zweiten Platz. Die Forscher waren leicht besorgt über die Trainingsmethoden und die Interaktion von Nutzerdaten mit dem Dienst, aber ChatGPT präsentiert die Datenschutzrichtlinien klar, ermöglicht es Nutzern, zu verstehen, was mit ihren Daten passiert, und bietet einfache Möglichkeiten, die Nutzung ihrer persönlichen Daten zu begrenzen. Grok von xAI kam auf den dritten Platz, gefolgt von Claude und Pi. Jeder dieser Dienste hatte Schwachstellen in bestimmten Bereichen, insgesamt jedoch respektierten sie den Nutzerdatenschutz zufriedenstellend. "Le Chat von Mistral AI ist die am wenigsten datenschutzinvasive Plattform, gefolgt von ChatGPT und Grok," so Incogni in seinem Bericht. "Diese Plattformen erzielten die höchsten Bewertungen hinsichtlich der Transparenz im Umgang mit Daten und der Möglichkeit, das Sammeln persönlicher Daten für das Training der zugrunde liegenden Modelle zu verhindern. ChatGPT erwies sich als die durchsichtigste Plattform bezüglich der Nutzung von Eingaben für das Modelltraining und hatte eine klare Datenschutzerklärung." Auf der unteren Hälfte der Liste nahm DeepSeek den sechsten Platz ein, gefolgt von Copilot und Gemini. Meta AI landete auf dem letzten Platz und wurde als die datenschutzfreundlichste KI-Service bewertet. Copilot erzielte die schlechtesten Bewertungen unter den neun Diensten aufgrund von KI-spezifischen Kriterien, wie zum Beispiel der Nutzung von Nutzerdaten für das Training der Modelle und der Möglichkeit, dass Nutzergespräche für das Training verwendet werden. Meta AI bekam die schlechteste Note insgesamt für seine Datensammlungs- und -teiler-Praktiken. "Plattformen von den größten Tech-Unternehmen erwiesen sich als die datenschutzinvasivsten, wobei Meta AI (Meta) der schlechteste war, gefolgt von Gemini (Google) und Copilot (Microsoft)," so Incogni. "Gemini, DeepSeek, Pi AI und Meta AI scheinen ihre Nutzer nicht die Nutzung von Eingaben für das Modelltraining zu stoppen zu lassen." Einige Dienste ermöglichen es Nutzern, das Sammeln ihrer Eingaben für das Training der Modelle zu verhindern. Dies betrifft ChatGPT, Copilot, Mistral AI und Grok. Andere Dienste, einschließlich Gemini, DeepSeek, Pi AI und Meta AI, bieten nach ihren Datenschutzrichtlinien und anderen Ressourcen diese Möglichkeit nicht an. Anthropic betonte, dass es niemals Nutzereingaben zur Modelltrainings sammelt. Schließlich zeigt eine verständliche und lesbare Datenschutzerklärung, wie Nutzer herausfinden können, welche Daten gesammelt werden und wie sie die Datensammlung verhindern können. "Eine benutzerfreundliche, einfach verfasste Unterstützungsschnittstelle, die Nutzer ermöglicht, Antworten auf Datenschutzbezogene Fragen zu suchen, hat sich als wegweisend für Transparenz und Klarheit erwiesen, solange sie auf dem neuesten Stand gehalten wird," so Incogni. "Viele Plattformen haben类似的处理方式, 然而像微软、Meta和谷歌这样的公司由于其单一的隐私政策覆盖了所有产品,因此在用户查询答案时显得不够便捷。" Industrieexperten bewerten die Erkenntnisse der Studie als bedeutend. Sie unterstreichen die Notwendigkeit, dass KI-Anbieter ihre Datenschutzmaßnahmen verbessern, um das Vertrauen der Nutzer zu gewinnen. Zudem wird darauf hingewiesen, dass Transparenz und Benutzerfreundlichkeit entscheidend sind, um den Datenschutz effektiv zu gewährleisten. Unternehmen wie Mistral AI und OpenAI gelten als Vorbilder, da sie diese Prinzipien in ihren Diensten umsetzen. Incogni ist ein Datendelete-Dienst, der Nutzern hilft, ihre persönlichen Daten von verschiedenen Plattformen zu entfernen. Die Studie zeigt, dass auch große Tech-Unternehmen noch viel Raum für Verbesserungen haben, insbesondere in Bezug auf die Transparenz und Kontrolle über Nutzerdaten.