L’intelligenza artificiale sta rivoluzionando il settore sanitario, migliorando l’accuratezza e la tempestività delle diagnosi. Sistemi evoluti di supporto decisionale clinico, come i “Clinical Decision Support System” (CDSS), analizzano dati clinici per assistere i medici, contribuendo a percorsi terapeutici più personalizzati e a una presa in carico predittiva del paziente. Tuttavia, questa innovazione impone nuove riflessioni normative, soprattutto in tema di responsabilità civile.
Secondo il Regolamento UE 2017/745, i software che svolgono funzioni diagnostiche o terapeutiche, noti come “Software as a Medical Device” (SaMD), sono considerati veri e propri dispositivi medici. Questi strumenti devono garantire interoperabilità con i sistemi ospedalieri, sicurezza, tracciabilità e trasparenza, conformandosi a rigidi criteri europei. L’AI Act 2024 classifica gran parte dei sistemi diagnostici basati su AI come “ad alto rischio”, imponendo standard elevati di controllo umano e tutela dei dati personali.
Dal punto di vista della responsabilità, però, il quadro normativo è ancora in fase di assestamento. In Italia, la Legge Gelli-Bianco del 2017 distingue tra responsabilità contrattuale della struttura sanitaria ed extracontrattuale del medico. L’introduzione dell’algoritmo come attore decisionale apre scenari inediti: chi risponde in caso di errore? Il medico, la struttura o il produttore del software?
Tre i livelli di responsabilità emergenti: quella del medico, che non può delegare la decisione all’AI; quella della struttura, responsabile di formazione e corretto uso del sistema; quella del produttore, chiamato in causa per malfunzionamenti o difetti progettuali.
Nonostante l’automazione, resta centrale la figura del medico. L’ultima parola, e l’ultima responsabilità, è sempre dell’essere umano. Solo con un’alleanza equilibrata tra competenza medica e tecnologica sarà possibile costruire una sanità più precisa e sicura.
A.C.