Le 7 avril 2026, Medscape posait la question frontalement : "Erreurs médicales impliquant une IA : qui est responsable ?" La même semaine, l'Académie nationale de médecine publiait un rapport de référence sur le sujet.[1] La réponse juridique se précise — et elle concerne directement chaque médecin qui utilise un logiciel d'IA.
Adopté le 13 juin 2024, le règlement européen sur l'intelligence artificielle (EU AI Act) est le premier cadre légal mondial dédié à l'IA.[2] Il introduit deux acteurs clés :
Les logiciels d'aide médicale sont classés à haut risque (Annexe III de l'EU AI Act), ce qui impose les obligations les plus strictes des deux côtés.
L'EU AI Act ne crée pas une responsabilité de l'IA en tant qu'entité autonome. La responsabilité reste humaine — répartie entre le fournisseur et le déployeur selon la nature de la défaillance.[2]
Dans son rapport de janvier 2026, l'Académie nationale de médecine analyse le partage de responsabilité entre fournisseur et déployeur.[1] Sa conclusion principale :
Position de l'Académie nationale de médecine
Le professionnel de santé est le dernier maillon de la chaîne. Sa responsabilité ne peut être engagée que s'il a commis une faute dans l'utilisation de l'IA — notamment en ne validant pas les outputs ou en utilisant un outil inadapté. L'obligation de moyens reste le standard : le médecin doit "agir avec le plus grand soin" et cela inclut désormais la vérification des recommandations IA.[1]
Le fournisseur IA est responsable si le dommage provient d'un défaut intrinsèque du système : algorithme biaisé, données d'entraînement inadéquates, bug logiciel, absence de validation clinique. La directive européenne sur les produits défectueux (révisée en 2024) s'applique dans ces cas.
Exemple concret : une IA d'aide au diagnostic qui recommande systématiquement un traitement contre-indiqué chez les femmes enceintes parce qu'elles étaient sous-représentées dans les données d'entraînement. La faute est du fournisseur, pas du médecin — sauf si celui-ci avait connaissance de cette limitation et a quand même utilisé l'outil sans précaution.
Le médecin est responsable dans trois cas principaux :
Une étude microéconomique publiée en février 2026 démontre que le régime de responsabilité intégrale du médecin est le plus efficace pour inciter les fournisseurs à améliorer la qualité de leurs outils : un médecin pleinement exposé est prêt à payer davantage pour une IA plus fiable, ce qui crée une pression positive sur l'industrie.[3]
La Suisse n'est pas soumise à l'EU AI Act, mais plusieurs mécanismes s'appliquent indirectement :
Valider un output IA ne signifie pas simplement le lire. Cela implique :
Cette validation n'est pas optionnelle — c'est la condition sine qua non d'une utilisation de l'IA conforme à l'obligation de moyens du médecin.
Pour aller plus loin sur la dimension légale suisse, consultez notre article sur le secret médical et l'IA en Suisse et celui sur la nLPD et l'IA médicale.
Un médecin peut-il être tenu responsable d'une erreur commise par une IA ?
Oui. En droit médical suisse, français et européen, le médecin reste responsable de l'acte médical final, quelle que soit la technologie utilisée. L'EU AI Act distingue le fournisseur (développeur) et le déployeur (médecin/établissement), mais la responsabilité clinique incombe toujours au praticien. Utiliser une IA sans valider ses outputs expose le médecin à une responsabilité pour faute.
L'EU AI Act s'applique-t-il déjà aux médecins en Suisse ?
Pas directement — la Suisse n'est pas membre de l'UE. Mais les fournisseurs d'IA médicale qui distribuent leurs produits en Suisse et dans l'UE sont soumis à l'EU AI Act. Indirectement, les médecins suisses utilisant ces outils bénéficient de ses protections et sont soumis à ses exigences via les contrats avec les fournisseurs. De plus, la Suisse prépare sa propre réglementation IA en cohérence avec l'approche européenne.
Qu'est-ce qu'une IA médicale de classe IIa ou IIb ?
La classification CE des dispositifs médicaux détermine le niveau de risque. Classe I : faible risque (logiciel administratif). Classe IIa : risque modéré (aide à la documentation, rappels de prescription). Classe IIb : risque élevé (aide au diagnostic, triage). Les logiciels de classe IIa et IIb doivent obtenir le marquage CE avant commercialisation en Europe et respecter des exigences strictes de validation clinique.
Comment protéger sa responsabilité en tant que médecin utilisant l'IA ?
Quatre mesures concrètes : (1) valider systématiquement chaque output IA avant tout usage clinique — ne jamais copier-coller sans relecture ; (2) utiliser uniquement des outils avec contrat de sous-traitance clair ; (3) documenter l'utilisation de l'IA dans le dossier patient si elle a influencé une décision ; (4) choisir des outils conçus pour la validation médicale, pas des outils grand public.
Chaque output est présenté comme projet à valider. Le médecin décide. Responsabilité documentée. Hébergé en Suisse.
Essayer gratuitement →