HyperAIHyperAI

Command Palette

Search for a command to run...

ChatGPT weiterhin kein Ersatz für Fachberatung

ChatGPT hat keine neue Beschränkung bei der Bereitstellung von rechtlichen oder medizinischen Beratungen eingeführt, wie mehrere Social-Media-Beiträge fälschlicherweise behaupteten. OpenAI bestätigte, dass sich das Verhalten des KI-Chatbots in dieser Hinsicht nicht verändert hat. Karan Singhal, Leiter des Gesundheits-Intelligenz-Teams bei OpenAI, erklärte auf X (früher Twitter), die Meldungen seien „nicht wahr“. Er betonte, dass ChatGPT niemals als Ersatz für professionelle Beratung gedacht sei, aber weiterhin ein wertvolles Werkzeug zur Verständnisförderung von rechtlichen und gesundheitlichen Themen bleibe. Die falsche Information stammte ursprünglich von dem Wettplattform-Anbieter Kalshi, der in einem nun gelöschten Post behauptet hatte, ChatGPT stelle ab sofort keine medizinische oder rechtliche Beratung mehr zur Verfügung. Singhal erklärte, dass die Richtlinien zur Bereitstellung von rechtlichen und medizinischen Empfehlungen bereits in früheren Versionen der Nutzungsbedingungen enthalten waren. Die aktualisierte Richtlinie vom 29. Oktober 2024 listet nun explizit auf, dass Nutzer ChatGPT nicht für „maßgeschneiderte Beratung verwenden dürfen, die eine Lizenz erfordert, wie z. B. rechtliche oder medizinische Beratung, ohne die Beteiligung eines zugelassenen Fachmanns“. Diese Regelung entspricht jedoch der bisherigen Politik, die bereits verboten hatte, „maßgeschneiderte rechtliche, medizinische oder finanzielle Beratung ohne Überprüfung durch einen qualifizierten Fachmann und Angabe der Nutzung von KI-Unterstützung sowie ihrer möglichen Grenzen“ zu erbringen. Zuvor hatte OpenAI mehrere getrennte Nutzungsrichtlinien für verschiedene Produkte wie ChatGPT, API und ein allgemeines Regelwerk. Mit dem neuen Update wurde nun ein einheitliches, konsolidiertes Regelwerk eingeführt, das laut dem OpenAI-Changelog „eine universelle Richtlinienbasis für alle Produkte und Dienstleistungen von OpenAI“ darstellt. Die Kerninhalte bleiben jedoch unverändert. Die Änderung betrifft somit nicht die Funktionalität oder den Zugang zu Informationen, sondern lediglich die Struktur und Klarheit der Richtlinien. Industrieexperten sehen in der Reaktion auf die Falschmeldungen eine wichtige Bestätigung der Transparenz von OpenAI. „Die Klarstellung ist entscheidend, um Missverständnisse über die Grenzen von KI zu vermeiden“, sagt eine Expertin für KI-Ethik an einer deutschen Hochschule. „ChatGPT ist kein Arzt oder Anwalt, aber es kann helfen, komplexe Themen zu entschlüsseln – vorausgesetzt, man nutzt es verantwortungsvoll.“ OpenAI positioniert sich damit weiterhin als Anbieter von Informationsunterstützung, nicht von Entscheidungsersatz, was die Vertrauenswürdigkeit der Plattform stärkt.

Verwandte Links