ChatGPT Health : une nouvelle fonctionnalité connecte vos dossiers médicaux à une IA qui peut inventer des informations
Une nouvelle fonctionnalité de ChatGPT Health, dévoilée par OpenAI, permet aux utilisateurs de connecter leurs dossiers médicaux et leurs données de santé bien-être à un chatbot d’intelligence artificielle. Cette fonctionnalité vise à offrir des conseils personnalisés, des résumés de consultations ou des rappels de traitement, en s’appuyant sur les informations médicales fournies par l’utilisateur. Toutefois, cette innovation soulève des inquiétudes importantes. Bien que l’outil soit conçu pour analyser les données médicales, il n’est pas exempt de risques liés à la génération d’informations erronées ou fictives — un phénomène connu sous le nom de « hallucinations » chez les modèles d’intelligence artificielle. Ces erreurs peuvent se manifester par des recommandations médicales inexactes, des interprétations erronées de résultats d’examens ou des suggestions non fondées, ce qui pose un danger réel pour la santé des utilisateurs. OpenAI affirme que le système est conçu pour ne pas remplacer un professionnel de santé, mais pour servir d’outil d’assistance. Il insiste sur le fait que les utilisateurs doivent toujours consulter un médecin pour tout diagnostic ou traitement. Cependant, l’accessibilité de ces informations via un outil conversationnel, souvent perçu comme fiable, pourrait conduire certaines personnes à s’appuyer sur les réponses du chatbot comme s’il s’agissait d’un avis médical officiel. En outre, la sécurité des données médicales, sensibles et personnelles, est un enjeu majeur. Bien que OpenAI affirme appliquer des mesures de protection des données, la connexion de dossiers médicaux à une plateforme d’IA soulève des questions sur la confidentialité, le stockage des données et les risques de fuites ou d’usurpation d’identité. Les professionnels de santé et les experts en éthique technologique mettent en garde contre l’usage de tels outils dans un contexte médical, soulignant qu’aucun modèle d’IA n’est actuellement capable de garantir une fiabilité suffisante pour des décisions de santé critiques. L’IA peut être utile pour structurer l’information ou aider à poser des questions pertinentes lors d’un rendez-vous, mais elle ne doit pas être considérée comme une source de diagnostic ou de traitement. En somme, si ChatGPT Health représente une avancée technologique prometteuse, son utilisation doit s’accompagner d’un esprit critique, d’un respect des limites de l’intelligence artificielle et d’une vigilance accrue concernant la sécurité des données. Avant d’adopter de tels outils, il est essentiel de comprendre qu’ils peuvent faire des erreurs — et que ces erreurs peuvent avoir des conséquences graves sur la santé.
