Accueil › Articles › Erreur médicale et IA : qui est responsable en cas de dommage ?
IA médicale

Erreur médicale et IA : qui est responsable en cas de dommage ?

22 avril 2026 8 min de lecture Équipe Clinovus AI

Le 7 avril 2026, Medscape posait la question frontalement : "Erreurs médicales impliquant une IA : qui est responsable ?" La même semaine, l'Académie nationale de médecine publiait un rapport de référence sur le sujet.[1] La réponse juridique se précise — et elle concerne directement chaque médecin qui utilise un logiciel d'IA.

Le cadre légal qui s'impose : l'EU AI Act

Adopté le 13 juin 2024, le règlement européen sur l'intelligence artificielle (EU AI Act) est le premier cadre légal mondial dédié à l'IA.[2] Il introduit deux acteurs clés :

Les logiciels d'aide médicale sont classés à haut risque (Annexe III de l'EU AI Act), ce qui impose les obligations les plus strictes des deux côtés.

L'EU AI Act ne crée pas une responsabilité de l'IA en tant qu'entité autonome. La responsabilité reste humaine — répartie entre le fournisseur et le déployeur selon la nature de la défaillance.[2]

La chaîne de responsabilité

Chaîne de responsabilité en cas d'erreur médicale avec l'IA Développeur IA Conception & fiabilité Éditeur logiciel Distribution & mise sur marché Établissement Déploiement & formation Médecin Utilisateur final — responsable Art. 40 LPMéd Patient Personne affectée EU AI Act Fournisseur & déployeur — Règl. UE 2024/1689 Répartition de la responsabilité selon l'EU AI Act Fournisseur : conception, tests, documentation, signalement des incidents Déployeur (médecin/établissement) : utilisation conforme, supervision humaine, validation Le médecin reste toujours responsable de l'acte médical final
Chaîne de responsabilité IA médicale : du développeur au médecin, chaque maillon peut être impliqué

Ce que dit l'Académie nationale de médecine

Dans son rapport de janvier 2026, l'Académie nationale de médecine analyse le partage de responsabilité entre fournisseur et déployeur.[1] Sa conclusion principale :

Position de l'Académie nationale de médecine

Le professionnel de santé est le dernier maillon de la chaîne. Sa responsabilité ne peut être engagée que s'il a commis une faute dans l'utilisation de l'IA — notamment en ne validant pas les outputs ou en utilisant un outil inadapté. L'obligation de moyens reste le standard : le médecin doit "agir avec le plus grand soin" et cela inclut désormais la vérification des recommandations IA.[1]

Quand la responsabilité du fournisseur est engagée

Le fournisseur IA est responsable si le dommage provient d'un défaut intrinsèque du système : algorithme biaisé, données d'entraînement inadéquates, bug logiciel, absence de validation clinique. La directive européenne sur les produits défectueux (révisée en 2024) s'applique dans ces cas.

Exemple concret : une IA d'aide au diagnostic qui recommande systématiquement un traitement contre-indiqué chez les femmes enceintes parce qu'elles étaient sous-représentées dans les données d'entraînement. La faute est du fournisseur, pas du médecin — sauf si celui-ci avait connaissance de cette limitation et a quand même utilisé l'outil sans précaution.

Quand la responsabilité du médecin est engagée

Le médecin est responsable dans trois cas principaux :

Une étude microéconomique publiée en février 2026 démontre que le régime de responsabilité intégrale du médecin est le plus efficace pour inciter les fournisseurs à améliorer la qualité de leurs outils : un médecin pleinement exposé est prêt à payer davantage pour une IA plus fiable, ce qui crée une pression positive sur l'industrie.[3]

Le cas spécifique de la Suisse

La Suisse n'est pas soumise à l'EU AI Act, mais plusieurs mécanismes s'appliquent indirectement :

Les 4 pratiques qui réduisent le risque

Réduire le risque d'erreur IA : les 4 pratiques essentielles Risque maîtrisé Valider systématiquement Chaque output IA avant usage Choisir un outil certifié Marquage CE classe IIa/IIb Contrat de sous-traitance Responsabilités du fournisseur Documenter l'utilisation Traçabilité de la décision IA
Les 4 pratiques qui réduisent le risque juridique et clinique lors de l'utilisation de l'IA médicale

Ce que "validation médicale" signifie concrètement

Valider un output IA ne signifie pas simplement le lire. Cela implique :

Cette validation n'est pas optionnelle — c'est la condition sine qua non d'une utilisation de l'IA conforme à l'obligation de moyens du médecin.

Pour aller plus loin sur la dimension légale suisse, consultez notre article sur le secret médical et l'IA en Suisse et celui sur la nLPD et l'IA médicale.

Questions fréquentes

Un médecin peut-il être tenu responsable d'une erreur commise par une IA ?

Oui. En droit médical suisse, français et européen, le médecin reste responsable de l'acte médical final, quelle que soit la technologie utilisée. L'EU AI Act distingue le fournisseur (développeur) et le déployeur (médecin/établissement), mais la responsabilité clinique incombe toujours au praticien. Utiliser une IA sans valider ses outputs expose le médecin à une responsabilité pour faute.

L'EU AI Act s'applique-t-il déjà aux médecins en Suisse ?

Pas directement — la Suisse n'est pas membre de l'UE. Mais les fournisseurs d'IA médicale qui distribuent leurs produits en Suisse et dans l'UE sont soumis à l'EU AI Act. Indirectement, les médecins suisses utilisant ces outils bénéficient de ses protections et sont soumis à ses exigences via les contrats avec les fournisseurs. De plus, la Suisse prépare sa propre réglementation IA en cohérence avec l'approche européenne.

Qu'est-ce qu'une IA médicale de classe IIa ou IIb ?

La classification CE des dispositifs médicaux détermine le niveau de risque. Classe I : faible risque (logiciel administratif). Classe IIa : risque modéré (aide à la documentation, rappels de prescription). Classe IIb : risque élevé (aide au diagnostic, triage). Les logiciels de classe IIa et IIb doivent obtenir le marquage CE avant commercialisation en Europe et respecter des exigences strictes de validation clinique.

Comment protéger sa responsabilité en tant que médecin utilisant l'IA ?

Quatre mesures concrètes : (1) valider systématiquement chaque output IA avant tout usage clinique — ne jamais copier-coller sans relecture ; (2) utiliser uniquement des outils avec contrat de sous-traitance clair ; (3) documenter l'utilisation de l'IA dans le dossier patient si elle a influencé une décision ; (4) choisir des outils conçus pour la validation médicale, pas des outils grand public.

Sources et références

  1. Académie nationale de médecine (2026). Intelligence artificielle et responsabilité médicale. Quels enjeux ? Bull Acad Natl Med 2026;210:3-9. academie-medecine.fr
  2. Règlement (UE) 2024/1689 sur l'intelligence artificielle (EU AI Act), adopté le 13 juin 2024. eur-lex.europa.eu
  3. Musy O. & Chopard B. (2026). La responsabilité médicale à l'ère de l'IA : une analyse microéconomique. Collège des économistes de la santé, 17 février 2026. ces-asso.org
  4. Medscape (2026). Erreurs médicales impliquant une IA : qui est responsable ? 7 avril 2026. francais.medscape.com
  5. Confédération suisse. Loi sur les professions médicales (LPMéd), art. 40. RS 811.11. fedlex.admin.ch
  6. Panckoucke R. (2026). Médecins de demain : quelle responsabilité face à l'IA ? Revue générale de droit médical.
Avertissement : cet article est à titre informatif uniquement et ne constitue pas un avis juridique. Les régimes de responsabilité varient selon les pays et les situations. Consultez un juriste spécialisé pour toute situation concrète.

Clinovus AI — conçu pour la validation médicale systématique

Chaque output est présenté comme projet à valider. Le médecin décide. Responsabilité documentée. Hébergé en Suisse.

Essayer gratuitement →
Une question sur cet article ? Notre équipe vous répond sous 24h.
support@clinovusai.com