OpenAI déploie ChatGPT Health, une nouvelle fonctionnalité conçue pour centraliser les demandes médicales au sein de son populaire chatbot IA. Cette décision reflète la demande croissante d’informations liées à la santé de la part de l’IA, OpenAI signalant que « des centaines de millions » d’utilisateurs recherchent déjà des conseils de bien-être chaque semaine. L’onglet Santé, actuellement en version bêta, permettra aux utilisateurs d’intégrer les données d’applications comme Apple Health et MyFitnessPal, créant ainsi un profil de santé numérique plus complet, mais potentiellement risqué.
Le dilemme de la confidentialité
L’expansion du secteur des soins de santé soulève des préoccupations immédiates concernant la sécurité et la confidentialité des données. Contrairement aux prestataires de soins de santé réglementés, OpenAI n’est pas lié par la HIPAA ni par aucune loi américaine complète sur la confidentialité. Cela signifie que les données de santé personnelles collectées par ChatGPT Health seront soumises aux politiques d’OpenAI, qui peuvent ne pas offrir les mêmes protections que les paramètres médicaux traditionnels. Selon Andrew Crawford du Centre pour la démocratie et la technologie, cela pourrait rendre les informations sensibles sur la santé vulnérables aux violations et aux abus.
OpenAI affirme que le nouvel onglet inclura un historique de discussion séparé, un cryptage et une authentification multifacteur. Il indique également que les conversations sur la santé ne seront pas utilisées pour la formation des modèles. Toutefois, l’absence d’un contrôle juridique strict reste un risque important.
Exactitude et risque de désinformation
Au-delà de la confidentialité, la fiabilité des conseils de santé générés par l’IA constitue un problème croissant. Des cas sont apparus où des utilisateurs ont reçu des recommandations dangereuses, comme remplacer le sel par du bromure de sodium, entraînant une hospitalisation. OpenAI reconnaît ce danger, déclarant que ChatGPT Health n’est pas destiné au diagnostic ou au traitement. Malgré les améliorations apportées à son modèle GPT-5 (qui hallucine moins fréquemment), le risque de conseils inexacts ou nuisibles demeure.
Considérations relatives à la santé mentale
L’entreprise a engagé plus de 170 experts en santé mentale pour améliorer ses réponses aux conversations sensibles. ChatGPT a été formé pour orienter les utilisateurs cherchant de l’aide en matière de santé mentale vers des ressources de crise. Même si OpenAI affirme que son IA peut désormais désamorcer plus efficacement les conversations en difficulté, l’efficacité de ces garde-fous reste encore incertaine.
Accès et perspectives d’avenir
ChatGPT Health est actuellement disponible via une liste d’attente. OpenAI présente l’onglet comme un outil d’information sur la condition physique, la nutrition et la médecine générale, déclarant explicitement qu’il ne remplacera pas les soins de santé professionnels. Cependant, l’expansion dans ce domaine introduit de nouveaux risques qui nécessitent une attention particulière.
L’absence de lois complètes sur la protection de la vie privée et le risque inhérent de désinformation générée par l’IA obligent les utilisateurs à procéder avec prudence. ChatGPT Health peut être pratique, mais il ne remplace pas l’expertise et les protections juridiques des systèmes de santé traditionnels.
