Les cas d’usage de l’intelligence artificielle générative se multiplient avec l’évolution rapide des grands modèles de langage (LLMs), qui deviennent de plus en plus performants et polyvalents. Ces modèles ne servent plus uniquement à générer du texte : ils exécutent des tâches variées, résolvent des problèmes, et interagissent de manière personnalisée.
Que ce soit à des fins personnelles souvent utilisés comme de nouveaux moteurs de recherche ou professionnelles pour automatiser des tâches simples, les LLMs séduisent chaque jour davantage d’utilisateurs.
Nos recherches et nos échanges avec des professionnels de santé confirment que le domaine médical n’échappe pas à cette tendance. Tant du côté des patients que des praticiens, l’usage de l’IA progresse à un rythme soutenu.
Côté patients : des risques réels à ne pas sous-estimer
De nombreux patients consultent désormais ChatGPT ou d’autres IA conversationnelles avant même de voir un médecin. Ils décrivent leurs symptômes et espèrent obtenir un diagnostic ou des conseils médicaux.
Pour le moment, et heureusement, ces modèles incluent des garde-fous et recommandent systématiquement de consulter un professionnel de santé. Cependant, un patient insistant peut contourner ces avertissements et recevoir des réponses inexactes, voire dangereuses. Cela peut conduire à :
- Minimiser un problème de santé sérieux,
- Dramatiser un symptôme bénin,
- Modifier ou retarder une prise en charge médicale adéquate.
En outre, pour obtenir des réponses personnalisées, les patients partagent parfois des informations sensibles (âge, symptômes, antécédents…). Or, ces données peuvent être utilisées pour entraîner les modèles, et ne sont pas protégées par le RGPD si elles sont saisies sur des plateformes publiques non médicalement certifiées.
Côté praticiens : un potentiel prometteur mais sous-utilisé
Si l’on observe encore une adoption minoritaire de ces outils parmi les soignants, certains professionnels s’y intéressent de près voire les utilisent activement.
Pour certains, l’IA est un simple gadget. Pour d’autres, bien maîtrisée, elle devient un véritable assistant numérique. Voici quelques usages concrets identifiés chez les professionnels :
- Rechercher rapidement des données scientifiques (grâce à Perplexity ou ChatGPT en version avec navigation web),
- Corriger et reformuler des textes médicaux,
- Structurer une prise de notes ou un bilan patient à partir de mots-clés,
- Créer des supports pédagogiques ou des alternatives à des exercices de rééducation,
- Enregistrer et organiser des idées à la volée, à la manière d’un dictaphone intelligent.
Ces usages facilitent la pratique quotidienne, en particulier pour les jeunes professionnels ou les soignants en cabinet libéral.
Astuces pour bien utiliser ChatGPT
Voici quelques bonnes pratiques pour optimiser les réponses de ChatGPT tout en restant dans un usage responsable :
- Donnez des consignes claires et fermes, comme à un collaborateur : évitez les formulations floues comme "tu peux m'aider à..." et privilégiez des instructions directes.
- Utilisez la formulation "Et si..." pour simuler des scénarios médicaux ou explorer des alternatives thérapeutiques.
- Indiquez au modèle de s’appuyer uniquement sur des faits vérifiables.
- Demandez-lui de vous challenger ou de remettre en question vos hypothèses, en citant des sources fiables.
- Spécifiez le format attendu: pour des tâches comme la structuration d’un bilan ou d’une note clinique, vous pouvez laisser ChatGPT libre de choisir un format. Mais si vous souhaitez un rendu spécifique, il est essentiel de lui fournir un exemple clair du format attendu, en incluant des exemples types dans votre prompt. Cela guidera sa réponse de manière plus fiable.
- Ne jamais fournir d’informations personnelles ou médicales identifiables sur vos patients (nom, prénom, antécédents exacts, etc.).
Exemple de prompt à utiliser
💡 Prompt pour structurer un bilan de consultation à partir de notes brutes :
“Adopte la posture d’un expert dans le domaine concerné. Réponds uniquement sur la base de faits vérifiables, en citant des sources fiables lorsque c’est pertinent (rapports scientifiques, recommandations officielles, méta-analyses, etc.).
Je souhaite explorer un sujet complexe dans un cadre professionnel.
Et si l’on envisageait différentes hypothèses ou approches alternatives, quelles options sont soutenues par des preuves solides ?
Challenge mes idées : identifie les biais possibles, remets en question les postulats implicites, et propose des pistes auxquelles je n’aurais pas pensé.
Attention : ne fais jamais appel à des données personnelles ou sensibles. L’objectif est de rester dans un cadre éthique, responsable et strictement basé sur des éléments factuels.”
🛑 N'oubliez pas : n’utilisez jamais de données réelles de patients dans vos prompts. Utilisez des données fictives ou anonymisées pour rester conforme au RGPD.
Les dangers de l’IA générative en santé
L’intelligence artificielle générative pose aujourd’hui un problème majeur de sécurité des données. Les modèles comme ChatGPT stockent parfois temporairement les entrées utilisateurs pour améliorer leurs performances. Il faut donc éviter à tout prix de fournir des informations sensibles, même si la plateforme semble sécurisée.
Ce qu’il faut retenir :
- Il n’est pas légal de transmettre des données de santé de vos patients à un outil non agréé DMP/Health Data Hub.
- Beaucoup de professionnels l’ignorent encore, mais ces pratiques sont hors cadre réglementaire.
- Aucune solution 100 % sécurisée n’existe à ce jour pour utiliser ces outils dans un cadre clinique sans risques.
Vers une solution responsable : co-création avec les professionnels de santé
Face à ces défis, nous travaillons actuellement à la co-création d’un outil d’IA spécialement conçu pour les professionnels de santé, avec un cadre éthique, sécurisé et conforme RGPD.
🎯 Objectif : offrir une solution robuste, éthique et utile, développée AVEC les utilisateurs pour répondre à leurs besoins réels sans compromettre la sécurité des données.
👉 Si ce projet vous intéresse, vous pouvez rejoindre notre programme Early Adopter et contribuer activement à cette démarche collaborative.
Conclusion
L’intelligence artificielle générative et ChatGPT en particulier ouvre de nouvelles perspectives fascinantes dans le monde de la santé. Si les usages actuels sont encore balbutiants, ils montrent déjà un potentiel considérable tant pour les patients que pour les professionnels.
Mais cette opportunité vient avec son lot de responsabilités. Il est essentiel de bien comprendre les risques, respecter le cadre légal, et utiliser ces outils avec rigueur et prudence.
Avec une approche collaborative et éthique, l’IA pourrait bien devenir un allié de taille dans l’évolution des pratiques médicales.