Il 7 aprile 2026, Medscape ha posto la domanda direttamente: "Errori medici con IA coinvolta: chi è responsabile?" La stessa settimana, l'Académie nationale de médecine ha pubblicato un rapporto di riferimento sull'argomento.[1] La risposta giuridica si sta definendo — e riguarda direttamente ogni medico che utilizza software IA.
Adottato il 13 giugno 2024, l'EU AI Act è il primo quadro legale mondiale dedicato all'IA.[2] Introduce due attori chiave:
L'EU AI Act non crea una responsabilità dell'IA come entità autonoma. La responsabilità rimane umana — ripartita tra fornitore e operatore in base alla natura del malfunzionamento.[2]
Posizione dell'Académie nationale de médecine (2026)
Il professionista sanitario è l'ultimo anello della catena. La sua responsabilità può essere invocata solo se ha commesso un errore nell'uso dell'IA — in particolare non validando gli output o usando uno strumento inadatto. L'obbligo di mezzi rimane lo standard e comprende ora anche la verifica delle raccomandazioni IA.[1]
Il fornitore IA è responsabile se il danno deriva da un difetto intrinseco del sistema: algoritmo distorto, dati di addestramento inadeguati, bug software, assenza di validazione clinica.
Per approfondire la dimensione legale svizzera, consultate il nostro articolo sul segreto medico e l'IA in Svizzera e quello sulla nLPD e l'IA medica.
Un medico può essere ritenuto responsabile di un errore commesso dall'IA?
Sì. Nel diritto medico svizzero, francese ed europeo, il medico rimane responsabile dell'atto medico finale, indipendentemente dalla tecnologia utilizzata. L'EU AI Act distingue il fornitore (sviluppatore) dall'operatore (medico/struttura), ma la responsabilità clinica incombe sempre al medico. Usare output IA senza validarli espone il medico a una responsabilità per negligenza.
L'EU AI Act si applica già ai medici in Svizzera?
Non direttamente — la Svizzera non è membro dell'UE. Ma i fornitori di IA medica che distribuiscono i loro prodotti in Svizzera e nell'UE sono soggetti all'EU AI Act. I medici svizzeri che utilizzano questi strumenti beneficiano indirettamente delle sue tutele e sono vincolati ai suoi requisiti tramite i contratti con i fornitori. La Svizzera sta inoltre sviluppando una propria regolamentazione IA in linea con l'approccio europeo.
Cos'è un dispositivo medico di classe IIa o IIb?
La classificazione CE dei dispositivi medici determina il livello di rischio. Classe I: basso rischio (software amministrativo). Classe IIa: rischio moderato (supporto alla documentazione). Classe IIb: rischio elevato (supporto alla diagnosi, triage). I software di classe IIa e IIb devono ottenere la marcatura CE prima della commercializzazione in Europa e rispettare rigorosi requisiti di validazione clinica.
Come proteggere la propria responsabilità come medico che usa l'IA?
Quattro misure concrete: (1) validare sistematicamente ogni output IA prima di qualsiasi uso clinico; (2) usare solo strumenti con un contratto di subappalto chiaro; (3) documentare l'uso dell'IA nella cartella del paziente se ha influenzato una decisione; (4) scegliere strumenti progettati per la validazione medica, non strumenti di consumo.
Ogni output è presentato come bozza da validare. Il medico decide. Responsabilità documentata. Ospitato in Svizzera.
Prova gratis →