HyperAI
Back to Headlines

ChatGPT-Therapiesitzungen nicht vertraulich in Rechtsstreitigkeiten

vor 2 Tagen

Sam Altman, CEO von OpenAI, hat in einem Interview mit dem Podcaster Theo Von darauf hingewiesen, dass ChatGPT-therapeutische Sitzungen nicht immer vertraulich bleiben könnten. Er betonte, dass viele junge Menschen ChatGPT als Therapeut, Coach oder Ratgeber für Beziehungsprobleme nutzen. Allerdings könnten diese Gespräche in rechtlichen Verfahren, wie Gerichtsverfahren, nicht den gleichen Schutz genießen wie Gespräche mit echten Therapeuten oder Anwälten. Altman erklärte, dass solche Gespräche in der Regel unter ärztlicher Schweigepflicht oder Anwaltsvertraulichkeit stehen, während bei ChatGPT noch keine entsprechenden rechtlichen Schutzmechanismen existieren. „Wir haben das noch nicht gelöst, und ich denke, das ist sehr schlimm“, sagte er. Er forderte, dass die Vertraulichkeit von Gesprächen mit KI-Systemen ähnlich wie bei menschlichen Berufen sein sollte, und betonte, dass dies dringend behandelt werden müsse. Im Interview sprach Altman auch über die wachsende Nutzung von ChatGPT als psychologische Unterstützung. Er verwies darauf, dass vor einem Jahr niemand daran gedacht hatte, dass KI-Chatbots so intensiv genutzt werden könnten. Derzeit speichert OpenAI Chat-Verläufe für die Verbesserung des Modells und zur Überwachung von Missbrauch. Laut den Richtlinien der Firma werden gelöschte Chats in der kostenlosen Version innerhalb von 30 Tagen dauerhaft gelöscht, es sei denn, es gibt rechtliche oder Sicherheitsgründe, sie zu behalten. Im Juni hat die New York Times und andere Medienunternehmen eine gerichtliche Anordnung gegen OpenAI gestellt, um alle Chat-Protokolle, auch gelöschte, dauerhaft zu speichern. OpenAI wehrt sich dagegen und ist in einem umfassenden Urheberrechtsstreit verwickelt. Altman, der im Februar Vater geworden ist, äußerte zudem Bedenken hinsichtlich der psychologischen Auswirkungen sozialer Medien auf Kinder. Er betonte, dass die Vertraulichkeit von KI-Kommunikation dringend reguliert werden müsse, um Nutzer zu schützen. In der Branche wird Altmans Warnung als wichtiges Signal für die Entwicklung von KI-Regulierungsrahmen angesehen. Experten betonen, dass die Vertraulichkeit von KI-Kommunikation kritisch sei, besonders wenn sie in sensiblen Bereichen wie Gesundheit oder Recht eingesetzt werde. OpenAI, ein führendes Unternehmen im Bereich Künstlicher Intelligenz, hat sich in den letzten Jahren stark auf die Entwicklung von KI-Modellen wie ChatGPT spezialisiert. Die Firma hat sich immer wieder mit Fragen der Datensicherheit und ethischen Nutzung auseinandergesetzt.

Related Links