Questa settimana, due pubblicazioni hanno scosso il mondo della salute digitale. Un editoriale su Nature Medicine mette in guardia sull'esplosione degli utenti che si rivolgono all'IA per consumatori per questioni di salute.[1] E un'indagine pubblicata il 22 aprile 2026 fornisce un dato brutale: l'affidabilità di questi strumenti scende sotto il 35% nelle condizioni reali.[2]
I test su cui si basano i produttori di chatbot usano casi didattici da quiz a scelta multipla — casi con un'unica risposta corretta. In questo contesto controllato, ChatGPT, Copilot e Perplexity mostrano punteggi vicini al 95%. Impressionante.
Nella realtà clinica, i pazienti non si presentano come casi da manuale. Arrivano con sintomi vaghi, comorbilità multiple, trattamenti in corso. L'IA non può vederli, non può fare domande di approfondimento come farebbe un medico, e non ha accesso ai dati longitudinali.
L'editoriale di Nature Medicine (27 aprile 2026) sottolinea precisamente questo divario: ottime prestazioni in laboratorio, utilità clinica reale molto limitata fuori dai casi didattici.
Quando un paziente svizzero condivide informazioni sanitarie con ChatGPT Health o Copilot Health, questi dati transitano su server di aziende americane. Il CLOUD Act americano consente alle autorità federali statunitensi di richiedere accesso ai dati — anche se ospitati fuori dagli USA.
In Svizzera, i dati sanitari sono dati sensibili ai sensi dell'art. 5 lett. c nLPD. La loro trasmissione a un servizio non conforme può costituire una violazione legale.[4]
| IA per consumatori | IA medica professionale | |
|---|---|---|
| Contesto paziente | ❌ Sconosciuto | ✓ Integrato |
| Cartella clinica | ❌ Assente | ✓ Disponibile |
| Validazione medica | ❌ Nessuna | ✓ Obbligatoria |
| Privacy dati | ⚠ Variabile / CLOUD Act | ✓ Svizzera · nLPD |
| Responsabilità | ❌ Nessuna | ✓ Medico + fornitore |
| Affidabilità reale | < 35% | ~85% |
| Formazione | ❌ Generalista | ✓ Medica |
Leggete anche il nostro articolo sulla responsabilità in caso di errore medico IA.
ChatGPT può davvero essere usato per consigli medici?
ChatGPT e strumenti simili possono fornire informazioni mediche generali utili — definizioni, meccanismi, informazioni sui farmaci. Ma non conoscono il contesto del paziente, non hanno accesso alla cartella clinica e le loro risposte non sono validate da un professionista sanitario. L'indagine di aprile 2026 mostra che la loro affidabilità scende sotto il 35% in condizioni reali. Sono utili come fonte di informazioni generali, non come strumento diagnostico.
Qual è la differenza tra IA per consumatori e IA medica professionale?
La differenza fondamentale è il contesto. Un'IA per consumatori risponde a domande senza conoscere l'età, i precedenti, i trattamenti in corso, le allergie o i risultati degli esami del paziente. Un'IA medica professionale è integrata nel flusso clinico: conosce la cartella del paziente, le sue risposte sono destinate al professionista sanitario e ogni raccomandazione è sottoposta alla validazione del medico.
I dati condivisi con ChatGPT Health o Copilot Health sono protetti?
È uno dei rischi più seri. OpenAI e Microsoft sono società americane soggette al CLOUD Act — le autorità americane possono richiedere l'accesso ai dati, anche se ospitati fuori dagli USA. In Svizzera, i dati sanitari sono dati sensibili ai sensi della nLPD. La loro trasmissione a un servizio straniero non conforme può costituire una violazione legale.
Contesto clinico integrato, validazione medica obbligatoria, hosting svizzero conforme nLPD. Non un chatbot per consumatori — uno strumento professionale.
Prova gratis →