Cette semaine, deux publications ont mis le feu aux poudres dans le monde de la santé numérique. Un éditorial dans Nature Medicine, l'une des revues médicales les plus influentes au monde, alerte sur l'explosion du nombre d'utilisateurs qui se tournent vers des IA grand public pour des questions de santé.[1] Et une enquête de 60 Millions de Consommateurs publiée le 22 avril 2026 livre un chiffre brutal : la fiabilité de ces outils chute sous les 35% en conditions réelles.[2]
Les tests sur lesquels les éditeurs de chatbots appuient leurs communications sont élaborés à partir de QCM médicaux — des cas d'école avec une réponse unique et bien définie. Sur ce terrain contrôlé, ChatGPT, Copilot et Perplexity affichent des scores proches de 95%. Impressionnant.
En réalité clinique, les patients ne présentent pas des cas d'école. Ils arrivent avec des symptômes flous, des comorbidités multiples, des traitements en cours, des facteurs psychosociaux, des antécédents familiaux. L'IA ne peut pas les voir, ne peut pas leur poser de questions comme le ferait un médecin, et n'a aucun accès à leurs données longitudinales. C'est dans ce contexte que la fiabilité s'effondre.
L'éditorial de Nature Medicine (27 avril 2026) pointe précisément cet écart : de très bonnes performances en laboratoire, une utilité clinique réelle très limitée dès qu'on sort du cas d'école.
OpenAI, Microsoft et Perplexity ont tous lancé des produits santé grand public ces derniers mois, capitalisant sur la confiance que le grand public accorde à leurs marques. Le positionnement est attractif : disponible 24h/24, gratuit ou peu coûteux, sans rendez-vous.
Mais derrière ce positionnement, plusieurs problèmes structurels :
C'est le risque que peu de patients mesurent. Lorsqu'un patient suisse partage des informations de santé avec ChatGPT Health ou Copilot Health, ces données transitent sur des serveurs d'entreprises américaines. Le CLOUD Act américain (Clarifying Lawful Overseas Use of Data Act) permet aux autorités fédérales américaines d'exiger l'accès à ces données, même hébergées hors des États-Unis.
En Suisse, les données de santé sont des données sensibles au sens de l'art. 5 let. c nLPD. Leur transmission à un service non-conforme peut constituer une violation légale — potentiellement engageant la responsabilité du professionnel de santé qui aurait conseillé ou facilité cet usage.[4]
Le 20 avril 2026, l'OMS/Europe a publié son premier état des lieux de l'IA dans les soins de santé dans les 27 États membres de l'UE.[3] Le rapport est nuancé : il reconnaît les bénéfices potentiels tout en soulignant la nécessité de concilier innovation, mesures de sauvegarde, compétences et confiance de la population.
Le rapport note que si tous les pays membres considèrent l'IA comme un levier pour améliorer les soins, la majorité ont déjà déployé des outils IA en milieu clinique — mais dans des cadres réglementés, avec validation professionnelle. Pas comme applications grand public autonomes.
| IA grand public | IA médicale pro | |
|---|---|---|
| Contexte patient | ❌ Inconnu | ✓ Intégré |
| Dossier médical | ❌ Absent | ✓ Disponible |
| Validation médicale | ❌ Aucune | ✓ Obligatoire |
| Confidentialité données | ⚠ Variable / CLOUD Act | ✓ Suisse · nLPD |
| Responsabilité | ❌ Aucune | ✓ Médecin + fournisseur |
| Fiabilité conditions réelles | < 35% | ~85% |
| Formation spécialisée | ❌ Généraliste | ✓ Médicale |
La demande d'information médicale en dehors des heures de consultation est réelle et légitime. Les patients ont le droit de chercher à comprendre leur santé. Mais l'IA grand public crée une illusion de compétence médicale qui peut mener à des erreurs graves.
Quelques messages simples à transmettre :
Pour comprendre les différences entre usages cliniques et grand public de l'IA, consultez aussi notre article sur la responsabilité en cas d'erreur médicale IA.
ChatGPT peut-il vraiment être utilisé pour des conseils médicaux ?
ChatGPT et ses équivalents peuvent donner des informations médicales générales utiles — définitions, mécanismes, informations sur les médicaments. Mais ils ne connaissent pas le contexte du patient, n'ont pas accès au dossier médical, et leurs réponses ne sont pas validées par un professionnel de santé. L'enquête de 60 Millions de Consommateurs (avril 2026) montre que leur fiabilité chute sous 35% en conditions réelles. Ils sont utiles comme source d'information générale, pas comme outil de diagnostic ou de conseil thérapeutique.
Quelle est la différence entre une IA grand public et une IA médicale professionnelle ?
La différence fondamentale est le contexte. Une IA grand public répond à des questions sans connaître l'âge, les antécédents, les traitements en cours, les allergies ou les résultats d'analyses du patient. Une IA médicale professionnelle est intégrée dans le flux clinique : elle connaît le dossier du patient, ses réponses sont destinées au professionnel de santé (pas au patient directement), et chaque recommandation est soumise à la validation du médecin.
Les données partagées avec ChatGPT Health ou Copilot Health sont-elles protégées ?
C'est l'un des risques les plus sérieux. OpenAI (ChatGPT) et Microsoft (Copilot) sont des sociétés américaines soumises au CLOUD Act — ce qui signifie que les autorités américaines peuvent exiger l'accès à leurs données, même hébergées hors des États-Unis. En Suisse, les données de santé sont des données sensibles au sens de la nLPD. Leur transmission à un service étranger non-conforme peut constituer une violation légale, que ce soit par le patient ou par un professionnel de santé.
Pourquoi les IA semblent-elles fiables en test mais pas en conditions réelles ?
Les benchmarks utilisent des cas d'école tirés de QCM médicaux — des questions avec une réponse unique correcte, bien délimitées. En réalité clinique, les patients présentent des symptômes flous, des comorbidités, des contextes de vie complexes. L'IA ne peut pas voir le patient, ne peut pas demander de précisions comme le ferait un médecin, et n'a pas accès aux données longitudinales. L'éditorial de Nature Medicine (avril 2026) souligne précisément cet écart entre performance en laboratoire et performance clinique réelle.
Contexte clinique intégré, validation médicale obligatoire, hébergement suisse conforme nLPD. Pas un chatbot grand public — un outil professionnel.
Essayer gratuitement →