L’introduzione di algoritmi di intelligenza artificiale nei processi di prevenzione, diagnosi e cura richiede un’attenzione particolare alla validità dei dati utilizzati per il loro addestramento e all’affidabilità degli output clinici generati. È fondamentale garantire che questi algoritmi siano scientificamente riproducibili e validati dalla comunità scientifica prima di essere implementati nel contesto sanitario. Solo attraverso rigorosi controlli e verifiche possiamo assicurarci che le tecnologie emergenti contribuiscano in modo sicuro ed efficace al miglioramento della salute dei pazienti.
Le analisi basate sull’AI possono generare modelli predittivi per la salute della popolazione, costituendo una base fondamentale per la medicina di precisione. Inoltre, l’AI offrirà un importante supporto all’assistenza primaria, ottimizzando i processi di presa in carico dei pazienti, in particolare quelli affetti da patologie croniche. A tal fine, il Piano Nazionale di Ripresa e Resilienza (PNRR) prevede significative risorse per lo sviluppo di una Piattaforma di Intelligenza Artificiale sotto la supervisione di Agenas, destinata a rivoluzionare l’assistenza sanitaria.
IA in Sanità, la gestione del rischio e i profili di responsabilità
Per affrontare i rischi associati all’uso delle nuove tecnologie, è fondamentale implementare percorsi formativi che integrino strumenti come la realtà aumentata, favorendo una transizione dalla cultura analogica a quella digitale. Questo approccio è essenziale per promuovere un utilizzo responsabile delle tecnologie, specialmente in un contesto in cui la nozione di rischio sta evolvendo rapidamente.
In tale contesto, la gestione del rischio e i profili di responsabilità legati all’AI richiedono un’analisi approfondita, in particolare nel settore sanitario. Un aspetto centrale di questa questione riguarda la regolamentazione dei processi di addestramento delle macchine e il loro aggiornamento, che avviene spesso in modo automatico. A livello comunitario, la responsabilità legata all’uso sanitario dell’AI ha iniziato a ricevere attenzione.
Le indicazioni dell’Europa
Nel 2017, il Parlamento europeo ha approvato una risoluzione con “Raccomandazioni alla Commissione riguardanti norme di diritto civile sulla robotica“, chiedendo lo sviluppo di direttive e strumenti non legislativi, come linee guida e codici di condotta, per ridurre i rischi. È stato sottolineato il principio dello “human in command approach“, che afferma che la programmazione iniziale delle cure e le decisioni finali debbano sempre restare sotto il controllo di un chirurgo umano, per evitare decisioni basate esclusivamente su algoritmi di intelligenza artificiale.
Libro Bianco sull’intelligenza artificiale
Nel 2020, la Commissione Europea ha pubblicato un Libro Bianco sull’intelligenza artificiale, con l’obiettivo di esaminare l’adeguatezza degli attuali regimi di responsabilità in vari ambiti di rischio, inclusi i diritti individuali, la protezione dei dati personali e i diritti d’autore relativi ai prodotti dell’AI. È emersa un’incertezza normativa sull’attribuzione di responsabilità tra i diversi attori economici coinvolti nella catena di approvvigionamento, dato che lo sviluppo e l’assemblaggio di tecnologie intelligenti richiedono la collaborazione di molteplici soggetti (sviluppatori, produttori, fornitori), complicando l’applicazione dei principi vigenti sulla responsabilità da prodotto difettoso. Il Libro Bianco ha delineato sette requisiti fondamentali per garantire un’AI affidabile: 1) intervento e sorveglianza umana; 2) robustezza tecnica e sicurezza; 3) riservatezza e governance dei dati; 4) trasparenza; 5) non discriminazione ed equità; 6) benessere sociale ed ambientale; 7) accountability.
Norme di responsabilità civile extracontrattuale all’intelligenza artificiale
Questi requisiti sono essenziali per le strutture sanitarie nel redigere i capitolati per l’acquisto di tecnologie AI. Nel settembre 2022, la Commissione Europea ha presentato una proposta di Direttiva per l’adeguamento delle norme di responsabilità civile extracontrattuale all’intelligenza artificiale. Questa bozza mira a creare un quadro normativo uniforme per i danni derivanti da difetti di programmazione o da violazioni dei doveri di diligenza da parte degli utilizzatori. La proposta definisce anche i soggetti aventi diritto al risarcimento e stabilisce presunzioni riguardanti il nesso di causalità in caso di colpa.
In particolare, si evidenziano le violazioni degli obblighi di diligenza, come il mancato rispetto della qualità dei dati di addestramento e dei requisiti di trasparenza.
La Direttiva prevede obblighi di trasparenza per i sistemi di AI “ad alto rischio” e stabilisce presunzioni di prova a carico del danneggiato per dimostrare il nesso di causalità tra condotta colposa e danno. Questa normativa avrà un impatto significativo sul regime civilistico e sulla legge Gelli. Inoltre, l’Unione Europea sta lavorando a una proposta di Direttiva che riguarderà la responsabilità per danno da prodotto difettoso, con l’intento di sostituire la vigente Direttiva 85/374/CEE e di adattarla al nuovo contesto digitale, facilitando l’onere della prova per il danneggiato.
L’AI Act
Inoltre, il 13 marzo 2024, su proposta del Comitato dei rappresentanti permanenti degli Stati membri presso l’UE, il Parlamento Europeo ha adottato il Regolamento noto come AI Act, successivamente approvato dal Consiglio dell’Unione Europea il 21 maggio 2024. Questo regolamento introduce un approccio “basato sul rischio”, stabilendo che le regole per fornitori e utenti devono diventare più rigorose in relazione al livello di rischio associato all’uso dell’AI. Le categorie di rischio vanno da “inaccettabile”, quando l’AI rappresenta una minaccia per la sicurezza delle persone, a “alto”, se può compromettere i diritti fondamentali come il diritto alla salute, fino a “minimo”, che comunque deve rispettare criteri di trasparenza.
Responsabilità dell’IA in Sanità: i limiti dell’attuale quadro normativo
In un contesto in rapido cambiamento, l’attuale quadro normativo potrebbe non essere sufficiente per identificare i responsabili dei danni in un processo clinico o diagnostico. Ciò include i produttori, sviluppatori e manutentori del software, come evidenziato dalla Commissione Europea. Inoltre, si devono considerare anche le responsabilità delle strutture sanitarie e degli operatori, in conformità con la legge 24/2017, che esclude la responsabilità oggettiva. Un elemento cruciale nella valutazione del nesso di causalità tra danno e attività dell’operatore è il grado di autonomia dei dispositivi impiegati.
Con la sentenza n. 7891 del 4 novembre 2021, il Consiglio di Stato ha chiarito la distinzione tra “algoritmo automatico” e “Intelligenza Artificiale“. L’algoritmo automatico è visto come una sequenza definita di azioni, mentre l’Intelligenza Artificiale implica meccanismi di machine learning, in cui il sistema non si limita ad applicare regole predefinite, ma elabora nuovi criteri di interazione tra i dati e prende decisioni autonome in base a tali elaborazioni.
Questa complessità rende difficile identificare il soggetto responsabile in caso di danno causato da macchine che utilizzano AI. Le responsabilità possono ricadere sulla struttura sanitaria, che è vincolata a una responsabilità contrattuale verso il danneggiato; sull’operatore, potenzialmente responsabile in base a responsabilità extracontrattuale o per rivalsa; e sui produttori del software, programmatori e sviluppatori.
La mancanza di trasparenza degli algoritmi
La mancanza di trasparenza degli algoritmi, spesso protetti da diritti di proprietà industriale, può esporre l’operatore a decisioni cliniche influenzate da errori diagnostici delle macchine, generando un rischio di responsabilità oggettiva. Inoltre, l’articolo 5 della legge 24/2017 richiede che gli operatori sanitari seguano linee guida e buone pratiche clinico-assistenziali. Tuttavia, la verifica della conformità degli algoritmi a queste linee guida in contesti di deep learning solleva interrogativi. Chi sarà in grado di effettuare tale verifica? E come si garantirà l’aggiornamento tempestivo e adeguato delle macchine? Quale formazione è necessaria per gli operatori affinché possano operare in sicurezza?
L’AI Act, recentemente approvato, impone ai fornitori di sistemi di intelligenza artificiale classificabili come “alto rischio” di sviluppare algoritmi con un livello di trasparenza tale da garantire che l’output sia comprensibile e utilizzabile in modo adeguato. Inoltre, i software basati su AI che sono classificati come dispositivi medici devono essere validati prima della loro immissione in commercio, dato che sono considerati “sistemi ad alto rischio”.
Limitazione della responsabilità: l’art. 2236 del codice civile
Un’altra questione rilevante riguarda la limitazione della responsabilità prevista dall’art. 2236 del codice civile. Questa norma stabilisce che, nel caso di prestazioni di particolare difficoltà, il professionista non è responsabile dei danni causati per colpa lieve. Ci si chiede se l’implementazione di software nell’attività medica possa escludere la difficoltà di una prestazione oppure, al contrario, aumentarla, richiedendo all’operatore una verifica più attenta dell’intero processo. In caso di contenzioso medico-legale, potrebbe essere opportuno coinvolgere esperti in intelligenza artificiale.
Il consenso informato per trattamenti che coinvolgono strumenti di AI
Un’altra problematica cruciale riguarda il consenso informato per trattamenti che coinvolgono strumenti di AI. La Cassazione civile, con la sentenza n. 28358 del 10 ottobre 2023, ha sottolineato che per ritenere valido il “libero e specifico” consenso, l’interessato deve essere in grado di comprendere l’algoritmo come un procedimento affidabile per ottenere un certo risultato. Questo algoritmo deve essere descritto in modo chiaro e dettagliato, evidenziando la sua capacità di raggiungere un risultato in un tempo definito. Tali indicazioni devono essere considerate in relazione alle rigorose normative della legge 219/2017 sul consenso ai trattamenti sanitari.
Le evoluzioni in corso nel dibattito europeo
Di fronte a un contesto di gestione del rischio e responsabilità complesso, è fondamentale avviare riflessioni e approfondimenti che evidenzino sia i significativi vantaggi dei processi di machine e deep learning nella gestione del rischio sanitario—come ad esempio nel monitoraggio delle infezioni ospedaliere attraverso l’analisi di dati complessi o nei dati predittivi relativi alla salute di specifici gruppi di popolazione in relazione a fattori ambientali—sia le criticità nell’individuazione delle responsabilità. Questi approfondimenti potrebbero giustificare un intervento legislativo specifico che tenga conto delle evoluzioni in corso nel dibattito europeo.
fonte: https://www.agendadigitale.eu/sanita/ia-in-sanita-nuove-frontiere-nuove-responsabilita/