Startseite › Artikel › Medizinischer Fehler und KI: Wer haftet bei einem Schaden?
Medizinische KI

Medizinischer Fehler und KI: Wer haftet bei einem Schaden?

22 April 2026 8 Min. Lesezeit Team Clinovus AI

Am 7. April 2026 stellte Medscape die Frage direkt: "Medizinische Fehler mit KI-Beteiligung: Wer haftet?" In der gleichen Woche veröffentlichte die Académie nationale de médecine einen Referenzbericht zum Thema.[1] Die rechtliche Antwort wird klarer — und sie betrifft jeden Arzt, der KI-Software nutzt.

Der massgebliche Rechtsrahmen: der EU AI Act

Der am 13. Juni 2024 angenommene EU AI Act ist der erste globale Rechtsrahmen für KI.[2] Er führt zwei Schlüsselakteure ein:

Der EU AI Act schafft keine Haftung für KI als autonome Einheit. Die Haftung bleibt menschlich — aufgeteilt zwischen Anbieter und Betreiber je nach Art des Versagens.[2]

Die Haftungskette

Haftungskette bei einem KI-bedingten medizinischen Fehler KI-Entwickler Konzeption & Zuverlässigkeit Softwareanbieter Vertrieb & Markteinführung Einrichtung Einsatz & Schulung Arzt Endnutzer — verantwortlich Art. 40 LPMéd Patient Betroffene Person EU AI Act Anbieter & Betreiber — Règl. UE 2024/1689 Répartition de la responsabilité selon l'EU AI Act Fournisseur : conception, tests, documentation, signalement des incidents Déployeur (médecin/établissement) : utilisation conforme, supervision humaine, validation Le médecin reste toujours responsable de l'acte médical final
KI-Haftungskette: Entwickler, Anbieter, Einrichtung und Arzt können alle in die Pflicht genommen werden

Was die Académie nationale de médecine sagt

Position der Académie nationale de médecine (2026)

Der Gesundheitsprofi ist das letzte Glied der Kette. Seine Haftung kann nur begründet werden, wenn er bei der KI-Nutzung einen Fehler begangen hat — insbesondere durch Nichtvalidierung der Outputs oder Einsatz eines ungeeigneten Tools. Die Sorgfaltspflicht bleibt der Standard und umfasst nun auch die Überprüfung von KI-Empfehlungen.[1]

Wann die Anbieterhaftung greift

Der KI-Anbieter haftet bei einem intrinsischen Systemfehler: fehlerhafter Algorithmus, unzureichende Trainingsdaten, Software-Bug, fehlende klinische Validierung.

Wann die Arzthaftung greift

Die 4 Praktiken zur Risikominimierung

KI-Fehlerrisiko minimieren: die 4 wesentlichen Praktiken Kontrol- liertes Risiko Systematisch validieren Jeden KI-Output vor Verwendung Zertifiziertes Tool wählen CE-Kennzeichnung Klasse IIa/IIb Auftragsverarbeitungsvertrag Anbieterverantwortlichkeiten Nutzung dokumentieren Rückverfolgbarkeit der KI-Entscheidung
Die 4 Praktiken zur Minimierung des rechtlichen und klinischen Risikos beim KI-Einsatz

Lesen Sie auch unsere Artikel zum Arztgeheimnis und KI in der Schweiz sowie zum nDSG und KI in der Medizin.

Häufige Fragen

Kann ein Arzt für einen von einer KI begangenen Fehler haftbar gemacht werden?

Ja. Im Schweizer, deutschen und europäischen Medizinrecht bleibt der Arzt für den abschliessenden medizinischen Akt verantwortlich, unabhängig von der verwendeten Technologie. Der EU AI Act unterscheidet zwischen Anbieter (Entwickler) und Betreiber (Arzt/Einrichtung), aber die klinische Verantwortung liegt immer beim Praktiker. KI-Outputs ohne Validierung zu verwenden, setzt den Arzt einer Fahrlässigkeitshaftung aus.

Gilt der EU AI Act bereits für Ärzte in der Schweiz?

Nicht direkt — die Schweiz ist kein EU-Mitglied. Aber Anbieter medizinischer KI, die ihre Produkte in der Schweiz und in der EU vertreiben, unterliegen dem EU AI Act. Schweizer Ärzte, die diese Tools verwenden, profitieren indirekt von seinen Schutzbestimmungen und sind über Verträge mit den Anbietern an seine Anforderungen gebunden. Die Schweiz entwickelt zudem eine eigene KI-Regulierung im Einklang mit dem europäischen Ansatz.

Was ist ein Medizinprodukt der Klasse IIa oder IIb?

Die CE-Klassifizierung von Medizinprodukten bestimmt das Risikoniveau. Klasse I: geringes Risiko (Verwaltungssoftware). Klasse IIa: mittleres Risiko (Dokumentationshilfe). Klasse IIb: hohes Risiko (Diagnoseunterstützung, Triage). Software der Klassen IIa und IIb muss vor der Vermarktung in Europa die CE-Kennzeichnung erhalten und strenge Anforderungen an die klinische Validierung erfüllen.

Wie schützt man sich als KI-nutzender Arzt haftungsrechtlich?

Vier konkrete Massnahmen: (1) Jeden KI-Output vor jeder klinischen Verwendung systematisch validieren; (2) nur Tools mit klarem Auftragsverarbeitungsvertrag verwenden; (3) die KI-Nutzung in der Patientenakte dokumentieren, wenn sie eine Entscheidung beeinflusst hat; (4) Tools wählen, die für die ärztliche Validierung konzipiert sind, keine Konsumentenprodukte.

Quellen und Referenzen

  1. Académie nationale de médecine (2026). KI und medizinische Haftung. Bull Acad Natl Med 2026;210:3-9. academie-medecine.fr
  2. Verordnung (EU) 2024/1689 über künstliche Intelligenz (EU AI Act), 13. Juni 2024. eur-lex.europa.eu
  3. Musy O. & Chopard B. (2026). Medizinische Haftung im KI-Zeitalter. Collège des économistes de la santé, 17. Februar 2026.
  4. Medscape (2026). Medizinische Fehler mit KI-Beteiligung: Wer haftet? 7. April 2026.
  5. Schweizerisches Medizinalberufegesetz (MedBG), Art. 40. SR 811.11. fedlex.admin.ch
Hinweis: Dieser Artikel dient ausschliesslich zur Information und stellt keine Rechtsberatung dar. Haftungsregimes variieren je nach Land und Situation. Wenden Sie sich für konkrete Situationen an einen spezialisierten Juristen.

Clinovus AI — für die systematische ärztliche Validierung konzipiert

Jeder Output wird als zu validierender Entwurf präsentiert. Der Arzt entscheidet. Dokumentierte Verantwortung. In der Schweiz gehostet.

Kostenlos testen →
Eine Frage zu diesem Artikel? Unser Team antwortet innerhalb von 24h.
support@clinovusai.com