Diese Woche sorgten zwei Veröffentlichungen für Aufruhr in der digitalen Gesundheitswelt. Ein Editorial in Nature Medicine warnt vor der explosionsartigen Zunahme von Nutzern, die Verbraucher-KI für Gesundheitsfragen verwenden.[1] Und eine am 22. April 2026 veröffentlichte Verbraucherumfrage liefert eine ernüchternde Zahl: Die Zuverlässigkeit dieser Tools fällt unter 35% in der Realität.[2]
Tests, auf die sich die Chatbot-Hersteller stützen, basieren auf Multiple-Choice-Fragen aus Lehrbüchern — eindeutige Fälle mit einer richtigen Antwort. In diesem kontrollierten Umfeld zeigen ChatGPT, Copilot und Perplexity Werte nahe 95%. Beeindruckend.
In der klinischen Realität präsentieren sich Patienten nicht als Lehrbuchfälle. Sie kommen mit unklaren Symptomen, multiplen Komorbiditäten, laufenden Behandlungen und psychosozialen Faktoren. Die KI kann sie nicht sehen, nicht nachhaken wie ein Arzt und hat keinen Zugriff auf ihre Längsschnittdaten.
Das Nature Medicine-Editorial (27. April 2026) weist genau auf diese Lücke hin: sehr gute Laborleistungen, aber sehr begrenzter klinischer Nutzen ausserhalb von Lehrbuchfällen.
Wenn ein Schweizer Patient Gesundheitsinformationen mit ChatGPT Health oder Copilot Health teilt, laufen diese Daten über Server amerikanischer Unternehmen. Der US-CLOUD Act erlaubt US-Bundesbehörden, Datenzugang zu verlangen — auch wenn die Daten ausserhalb der USA gehostet werden.
In der Schweiz sind Gesundheitsdaten besonders schützenswerte Personendaten gemäss Art. 5 Bst. c nDSG. Ihre Übermittlung an einen nicht-konformen Dienst kann einen Rechtsbruch darstellen.[4]
Am 20. April 2026 veröffentlichte die WHO/Europa ihren ersten Überblick über KI im Gesundheitswesen in den 27 EU-Mitgliedstaaten.[3] Das Fazit: Innovation muss mit Schutzmassnahmen, Kompetenz und Vertrauen der Bevölkerung in Einklang gebracht werden.
| Verbraucher-KI | Professionelle medizinische KI | |
|---|---|---|
| Patientenkontext | ❌ Unbekannt | ✓ Integriert |
| Patientenakte | ❌ Fehlt | ✓ Verfügbar |
| Ärztliche Validierung | ❌ Keine | ✓ Obligatorisch |
| Datenschutz | ⚠ Variabel / CLOUD Act | ✓ Schweiz · nDSG |
| Haftung | ❌ Keine | ✓ Arzt + Anbieter |
| Zuverlässigkeit (Realität) | < 35% | ~85% |
| Spezialisierung | ❌ Allgemein | ✓ Medizinisch |
Lesen Sie auch unseren Artikel zur Haftung bei KI-bedingten medizinischen Fehlern.
Kann ChatGPT wirklich für medizinische Ratschläge genutzt werden?
ChatGPT und ähnliche Tools können nützliche allgemeine medizinische Informationen liefern — Definitionen, Mechanismen, Medikamenteninformationen. Aber sie kennen den Patientenkontext nicht, haben keinen Zugriff auf die Krankenakte und ihre Antworten werden nicht von einem Arzt validiert. Die Zuverlässigkeit fällt in der Realität unter 35%. Sie sind als allgemeine Informationsquelle nützlich, nicht als Diagnose- oder Therapieberatungswerkzeug.
Was ist der Unterschied zwischen Verbraucher-KI und professioneller medizinischer KI?
Der grundlegende Unterschied ist der Kontext. Eine Verbraucher-KI antwortet auf Fragen, ohne Alter, Vorerkrankungen, laufende Behandlungen, Allergien oder Testergebnisse des Patienten zu kennen. Eine professionelle medizinische KI ist in den klinischen Arbeitsablauf integriert: Sie kennt die Patientenakte, ihre Antworten sind für den Arzt bestimmt und jede Empfehlung unterliegt der ärztlichen Validierung.
Sind die mit ChatGPT Health oder Copilot Health geteilten Daten geschützt?
Das ist eines der ernsthaftesten Risiken. OpenAI und Microsoft sind US-Unternehmen, die dem CLOUD Act unterliegen — US-Behörden können Datenzugang verlangen, auch wenn die Daten ausserhalb der USA gehostet werden. In der Schweiz sind Gesundheitsdaten besonders schützenswerte Personendaten gemäss nDSG. Ihre Übermittlung an einen nicht-konformen ausländischen Dienst kann einen Rechtsbruch darstellen.
Klinischer Kontext integriert, obligatorische ärztliche Validierung, Schweizer Hosting nDSG-konform. Kein Verbraucher-Chatbot — ein professionelles Werkzeug.
Kostenlos testen →