Am 7. April 2026 stellte Medscape die Frage direkt: "Medizinische Fehler mit KI-Beteiligung: Wer haftet?" In der gleichen Woche veröffentlichte die Académie nationale de médecine einen Referenzbericht zum Thema.[1] Die rechtliche Antwort wird klarer — und sie betrifft jeden Arzt, der KI-Software nutzt.
Der am 13. Juni 2024 angenommene EU AI Act ist der erste globale Rechtsrahmen für KI.[2] Er führt zwei Schlüsselakteure ein:
Der EU AI Act schafft keine Haftung für KI als autonome Einheit. Die Haftung bleibt menschlich — aufgeteilt zwischen Anbieter und Betreiber je nach Art des Versagens.[2]
Position der Académie nationale de médecine (2026)
Der Gesundheitsprofi ist das letzte Glied der Kette. Seine Haftung kann nur begründet werden, wenn er bei der KI-Nutzung einen Fehler begangen hat — insbesondere durch Nichtvalidierung der Outputs oder Einsatz eines ungeeigneten Tools. Die Sorgfaltspflicht bleibt der Standard und umfasst nun auch die Überprüfung von KI-Empfehlungen.[1]
Der KI-Anbieter haftet bei einem intrinsischen Systemfehler: fehlerhafter Algorithmus, unzureichende Trainingsdaten, Software-Bug, fehlende klinische Validierung.
Lesen Sie auch unsere Artikel zum Arztgeheimnis und KI in der Schweiz sowie zum nDSG und KI in der Medizin.
Kann ein Arzt für einen von einer KI begangenen Fehler haftbar gemacht werden?
Ja. Im Schweizer, deutschen und europäischen Medizinrecht bleibt der Arzt für den abschliessenden medizinischen Akt verantwortlich, unabhängig von der verwendeten Technologie. Der EU AI Act unterscheidet zwischen Anbieter (Entwickler) und Betreiber (Arzt/Einrichtung), aber die klinische Verantwortung liegt immer beim Praktiker. KI-Outputs ohne Validierung zu verwenden, setzt den Arzt einer Fahrlässigkeitshaftung aus.
Gilt der EU AI Act bereits für Ärzte in der Schweiz?
Nicht direkt — die Schweiz ist kein EU-Mitglied. Aber Anbieter medizinischer KI, die ihre Produkte in der Schweiz und in der EU vertreiben, unterliegen dem EU AI Act. Schweizer Ärzte, die diese Tools verwenden, profitieren indirekt von seinen Schutzbestimmungen und sind über Verträge mit den Anbietern an seine Anforderungen gebunden. Die Schweiz entwickelt zudem eine eigene KI-Regulierung im Einklang mit dem europäischen Ansatz.
Was ist ein Medizinprodukt der Klasse IIa oder IIb?
Die CE-Klassifizierung von Medizinprodukten bestimmt das Risikoniveau. Klasse I: geringes Risiko (Verwaltungssoftware). Klasse IIa: mittleres Risiko (Dokumentationshilfe). Klasse IIb: hohes Risiko (Diagnoseunterstützung, Triage). Software der Klassen IIa und IIb muss vor der Vermarktung in Europa die CE-Kennzeichnung erhalten und strenge Anforderungen an die klinische Validierung erfüllen.
Wie schützt man sich als KI-nutzender Arzt haftungsrechtlich?
Vier konkrete Massnahmen: (1) Jeden KI-Output vor jeder klinischen Verwendung systematisch validieren; (2) nur Tools mit klarem Auftragsverarbeitungsvertrag verwenden; (3) die KI-Nutzung in der Patientenakte dokumentieren, wenn sie eine Entscheidung beeinflusst hat; (4) Tools wählen, die für die ärztliche Validierung konzipiert sind, keine Konsumentenprodukte.
Jeder Output wird als zu validierender Entwurf präsentiert. Der Arzt entscheidet. Dokumentierte Verantwortung. In der Schweiz gehostet.
Kostenlos testen →