Nel dibattito pubblico sull‘Intelligenza Artificiale applicata alla sanità, l’attenzione si è a lungo concentrata sulle potenzialità.
Solo più di recente, anche grazie all’intervento di organismi sovranazionali come l’Organizzazione Mondiale della Sanità (OMS), il discorso ha iniziato a spostarsi con maggiore decisione sull’errore algoritmico e le sue conseguenze giuridiche.
Il monito dell’OMS intercetta una tensione già evidente nei sistemi sanitari avanzati. L’Intelligenza Artificiale non è più una tecnologia sperimentale, ma è entrata nella pratica clinica ordinaria, spesso senza che il quadro regolatorio e responsabilistico sia stato pienamente adattato.
L’errore in medicina non è una novità per il diritto. Ciò che cambia con l’Intelligenza Artificiale è la natura dell’errore, in quanto si tratta di un output generato da un sistema che apprende, generalizza e opera su basi probabilistiche. Molti sistemi di AI producono risultati senza che sia possibile ricostruire in modo chiaro e intelligibile il percorso decisionale che li ha generati.
Nel quadro attuale, il medico rimane il perno della responsabilità clinica. L’Intelligenza Artificiale è qualificata, giuridicamente, come strumento di supporto alla decisione e non come soggetto autonomo. L’errore dell’algoritmo, quindi, non esonera il professionista dalla responsabilità verso il paziente.
Anche il ruolo della struttura sanitaria assume un rilievo crescente. È la struttura, infatti, che decide se adottare un sistema di Intelligenza Artificiale, quale acquistare, come integrarlo nei percorsi clinici e come formare il personale.
Il diritto sanitario conosce bene la responsabilità per difetto di organizzazione, per carenze strutturali o per insufficiente gestione del rischio clinico. L’introduzione dell’AI amplia questa responsabilità, perché richiede nuove competenze, nuove procedure di controllo e una valutazione continua delle prestazioni del sistema.
Le proposte normative europee più recenti stanno introducendo obblighi di trasparenza, tracciabilità e gestione del rischio. L’obiettivo è evitare che la complessità tecnica si traduca in un vuoto di responsabilità.
Il quadro che emerge è quello di una responsabilità sempre più distribuita lungo la filiera dell’innovazione tecnologica. Medici, strutture sanitarie, produttori e decisori pubblici concorrono alla creazione e alla gestione del rischio algoritmico. La sfida del diritto non è fermare l’innovazione, ma impedire che essa si sviluppi scaricando i costi dell’errore sul soggetto più debole: il paziente.
V.L.
Diritto dell’informazione
“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”
Continua a seguirci!

















