Abstract
Non vi può essere consenso senza conoscenza. L’utilizzo crescente dell’intelligenza artificiale (IA) in ambito sanitario introduce nuove riflessioni sul processo di ottenimento del consenso informato, il quale nell’era dell’IA richiede un’attenta riflessione per bilanciare l’innovazione tecnologica con la tutela dei diritti del paziente e la salvaguardia del rapporto medico-paziente. Il medico umano deve rimanere il garante del rapporto con il paziente, assicurando la sua autonomia decisionale e un’assistenza personalizzata. Il paziente ha diritto di ricevere informazioni chiare e comprensibili sulla diagnosi, la prognosi, i benefici e i rischi dei trattamenti proposti, comprese le possibili alternative. Tuttavia, l’opacità intrinseca di alcuni sistemi di IA, la cosiddetta “scatola nera”, rende difficile per i medici comprendere appieno il processo decisionale dell’algoritmo e, di conseguenza, spiegare in modo esaustivo al paziente come l’IA abbia contribuito alla diagnosi o al piano terapeutico.
L’opacità dell’IA e il rischio di deskilling
La eHealth altro non è che la nuova declinazione della sanità, in cui vengono ricomprese, altresì, le applicazioni medico-sanitarie dell’intelligenza artificiale, la telemedicina ed il fascicolo sanitario elettronico. L’integrazione dell’Intelligenza Artificiale nel settore sanitario impone nuove riflessioni sulla gestione del rapporto medico-paziente.
Il primo approccio riguarda la fiducia del medico nei confronti dello strumento di IA: questo affidamento può essere problematico sin dall’inizio in considerazione dell’opacità che impedisce di individuare con chiarezza le connessioni eseguite dalla macchina per giungere al risultato fornito. La “scatola nera” comporta un’inevitabile incertezza e imperscrutabilità di “percorso” che si riflettono nella mancanza di un pieno controllo e, dunque, della stessa affidabilità dell’esito del procedimento automatizzato.
Murone in questo senso afferma che «l’algoritmo può identificare le correlazioni fra migliaia di variabili, ma non evidenzia il nesso di causalità. Si potrebbe dire, dunque, che la A.I. ‘ragiona’’ per inferenza statistica, e non per deduzione causale».[1]
L’opacità dell’IA risulta amplificata se riferita alle specifiche decisioni sanitarie e mediche, a ciò si aggiunga anche il limite dei c.d. bias degli algoritmi e che assumono un rilievo marcato in campo medico, laddove dall’utilizzo di un sistema intelligente può derivare un nocumento alla salute e alla stessa vita dei pazienti.
Il medico potrebbe non affidarsi alla macchina e discostarsi dai suoi esiti, adottando una valutazione umana su quella artificiale. Questa visione parrebbe più orientata sul GDPR, il quale nell’art. 22 riconosce il diritto dell’interessato a «non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona»; tuttavia, questo approccio rischierebbe di attribuire unicamente in capo al medico, l’onere e la responsabilità della decisione finale, chiedendogli di valutare se discostarsi o meno dall’esito di una macchina della quale, molto spesso e proprio a fronte della sua opacità, non conosce il funzionamento o l’iter logico seguito.
Se il medico dovesse intervenire necessariamente all’esito della valutazione automatizzata “opaca”, bisognerebbe chiedersi quando se ne potrà discostare; del pari qualora il medico si affidi in modo incondizionato alla scelta effettuata dalla macchina, quale potrà essere la sua responsabilità in caso di errore o malfunzionamento del sistema di IA?
Anche in presenza di tale diritto, infatti, ci si è chiesti quale supervisore voglia assumersi il rischio e la responsabilità personale di disattendere una decisione che viene comunemente percepita come esatta e imparziale.[2]
Anche nel caso di un affidamento incondizionato alla macchina, il rischio diventerebbe quello di un appiattimento della funzione del medico sul risultato dell’IA, tale da portare al pericoloso fenomeno del c.d. deskilling.
Dalla relazione medico-paziente a quella medico-paziente-IA
Se da un lato vi sarà la fiducia del medico nei confronti delle nuove tecnologie di IA, dall’altro occorre considerare che il fondamentale rapporto fiduciario che intercorre tra medico e paziente vede nel “medico umano” l’unico che possa esprimere capacità di empatia e comprensione che ancora non possono essere attuate dall’IA.
L’European Group on Ethics in Science and New Technologies ha trattato il tema degli aspetti dell’utilizzo delle nuove tecnologie nell’ambito della salute. Nel parere riguardo a New Health Technologies and Citizen Participation del 2015[3] veniva evidenziato come l’utilizzo delle nuove tecnologie stesse cambiando profondamente il coinvolgimento dei cittadini riguardo ai temi della salute e stesse trasformando anche la relazione tra medico e paziente.
Assieme ai benefici – miglioramento dello stile di vita, proattività dei pazienti nella gestione della propria salute, accessibilità dei medici attraverso la telemedicina – vi sono anche dei rischi: la perdita del contatto personale e diretto con il medico, la tendenza all’auto-diagnosi, all’auto-medicazione e alla sperimentazione, senza consultazione medica; il rischio di danni che possono essere causati dall’utilizzo di app di mobile-health senza supervisione medica o da test genetici diretti al consumatore e praticati senza consulenza.
Il rapporto medico-paziente è di per sé una relazione sbilanciata, in cui le parti non sono sullo stesso piano e in cui il paziente si trova in una situazione vulnerabile; potrebbe essere particolarmente difficile ottenere un consenso che soddisfi tutti i requisiti richiesti dalla legge da un soggetto fragile prostrato dalla malattia. Se a ciò si aggiunge il diritto ad ottenere una spiegazione, diventa chiaro che possono sorgere diversi interrogativi, soprattutto nella telemedicina, in cui il medico si trova lontano dal paziente e manca del tutto il contatto umano.
La relazione medico-paziente potrebbe trasformarsi nella relazione medico – paziente -IA, vi è, quindi, il rischio di una complessiva diminuzione di un approccio olistico al paziente. Se da un lato le applicazioni sanitarie basate sull’intelligenza artificiale e la tecnologia indossabile possono rafforzare il controllo e la conoscenza della malattia da parte dei pazienti e creare un rapporto più “equo” con il personale sanitario, quest’ultimo potrebbe trovarsi sempre più spesso in presenza di pazienti muniti di diagnosi e suggerimenti terapeutici forniti loro dalle applicazioni di intelligenza artificiale. Ciò potrebbe condurre ad una nuova ripartizione dei ruoli tra paziente e personale sanitario, in cui a quest’ultimo spetterebbe il ruolo di garante della qualità e interprete delle informazioni che il paziente ha già ricevuto. Ed ancora, se da una parte i pazienti sono messi nelle condizioni di valutare i loro sintomi e prendersi cura di sé stessi, dall’altro restano preoccupazioni relative alla perdita di contatto umano e all’aumento dell’isolamento sociale, ove tali applicazioni siano usate per sostituire il tempo del personale sanitario o delle famiglie con i pazienti (Cfr. Swedish Council on Medical Ethics 2020)[4].
Il consenso informato come fondamento del diritto alla salute e dell’autonomia decisionale del paziente
L’utilizzo di sistemi di intelligenza artificiale non potrà non avere ricadute sul consenso informato, la cui centralità assunta garantisce al paziente il diritto di essere pienamente informato e di partecipare attivamente alle decisioni riguardanti la propria salute. Con l’avvento dell’IA, si pone l’importante questione di come estendere il consenso informato all’utilizzo di queste tecnologie avanzate.
Per il Comitato Nazionale per la Bioetica vi può essere il rischio che l’uso dell’IA possa influenzare l’autonomia del paziente. Se il paziente presta il proprio consenso in base ad una diagnosi personalizzata effettuata dal sistema di AI, ciò a lungo andare rischia di ostacolare il fatto che egli possa effettuare confronti con altre decisioni o altre scelte, in quanto meno consapevole delle alternative. Certamente il paziente vede modificarsi il tradizionale rapporto di alleanza con il medico: ha ancora idee molto confuse sulle applicazioni dell’IA, ne verifica i vantaggi, ma non ne comprende appieno i rischi.
Il concetto di “consenso informato” è fondamentale nel campo della medicina e del diritto sanitario. L’art.32 della Costituzione nel riconoscere il diritto alla salute, sottopone a limiti stringenti la possibilità di introdurre obblighi di cura: la regola che deve sovrintendere ad ogni decisione in tema di trattamenti sanitari è quella della volontarietà. L’obbligatorietà è un’eccezione, giustificata per tutelare l’interesse della collettività alla salute.
È solo con la legge n. 219/2017 che viene promossa e valorizzata la «relazione di cura e di fiducia tra paziente e medico che si basa sul consenso informato nel quale si incontrano l’autonomia decisionale del paziente e la competenza, l’autonomia professionale e la responsabilità del medico» (art. 1, comma 2).
Nella formula utilizzata di “consenso informato” vi è il diritto del paziente ad acconsentire alle cure e quello di ricevere le informazioni necessarie per giungere ad una decisione consapevole [5].
Ancora, l’art. 1, comma 3, della legge n.219/2017 prevede che la persona deve essere informata «in modo aggiornato e a lei comprensibile riguardo alla diagnosi, alla prognosi, ai benefici e ai rischi degli accertamenti diagnostici e dei trattamenti sanitari indicati, nonché riguardo alle possibili alternative e alle conseguenze dell’eventuale rifiuto del trattamento sanitario e dell’accertamento diagnostico o della rinuncia ai medesimi».
Esiste un obbligo del professionista sanitario di informare il paziente dell’utilizzo di IA nel procedimento che ha portato alla diagnosi e alla proposta terapeutica? Sul punto, il Comitato Nazionale per la Bioetica si è espresso in senso affermativo: «È, dunque, un obbligo etico e giuridico che coloro che si sottopongono a trattamenti sanitari così innovativi, attraverso l’IA, siano informati nelle modalità più consone e comprensibili al paziente di ciò che sta accadendo, di essere (se è il caso) oggetto di sperimentazione e validazione; di essere a conoscenza che ciò che è loro applicato (sul piano diagnostico e terapeutico) implica dei vantaggi, ma anche dei rischi. Va specificato in modo esplicito nel consenso informato se i trattamenti applicati (diagnostici o terapeutici) provengano solo da una macchina (IA, robot) o se e quali sono gli ambiti e i limiti del controllo umano o supervisione sulla macchina»[6].
Vi è poi il timore che soggetti più fragili culturalmente e refrattari alle nuove tecnologie ‒ come gran parte della popolazione più anziana ‒ possano opporre un rifiuto preconcetto alla proposta diagnostica o terapeutica. Pertanto, si è sostenuta la necessità di una flessibilità delle soluzioni, che imporrebbe, da un lato, la sincerità del medico rispetto a richieste precise del paziente e un’informazione più completa ed esaustiva in taluni casi, ma che lascerebbe, dall’altro, margini di discrezionalità al medico nella definizione del contenuto informativo e, dunque, rispetto all’eventualità di comunicare o meno l’uso di software intelligenti[7].
Per contro, è stato osservato che, pur non potendosi richiedere al medico di scendere nelle tecnicalità, ad esempio, del funzionamento delle reti neurali profonde, l’assenza di un qualche tipo di informazione sull’uso di tali strumenti, graduata rispetto alla sensibilità e all’alfabetizzazione digitale del singolo paziente, si pone in contrasto con l’obbligo di completezza caratterizzante un istituto di sicuro fondamento costituzionale quale il consenso informato[8]. Se il medico dovesse limitarsi ad un generico riferimento all’utilizzo di software intelligenti, senza alcuna spiegazione circa il loro funzionamento e le finalità perseguite, non rispetterebbe quei requisiti di completezza e comprensibilità dell’informazione posti dalla L 219/ 2017.
L’OMS ammettendo che non esistono “precedenti” per la configurazione di un obbligo del medico di ottenere il consenso del paziente all’uso di tecnologie per la diagnosi, tuttavia, ritiene che la trasparenza è senz’altro cruciale per creare fiducia nelle nuove tecnologie, e per questo «I medici dovrebbero essere trasparenti con i propri pazienti fin dall’inizio e informarli dell’impiego di sistemi di intelligenza artificiale, piuttosto che sottacere l’utilizzo di nuove tecnologie. Dovrebbero fare del loro meglio per spiegare ai pazienti le finalità dell’utilizzo di tali sistemi di IA, come funzionano e se sono spiegabili. Dovrebbero descrivere quali dati vengono raccolti, come sono utilizzati e condivisi con terze parti e le misure di sicurezza messe in atto per proteggere la riservatezza dei pazienti. I medici dovrebbero, inoltre, essere trasparenti circa eventuali punti deboli della tecnologia, come ad esempio possibili distorsioni, violazioni dei dati personali o rischi per la riservatezza».
Il paziente potrà diventare consapevole se vi sarà un previo coinvolgimento del medico stesso in un percorso formativo adeguato sulle nuove tecnologie e, soprattutto, un’indispensabile inclusione del professionista sanitario nella creazione e progettazione dell’IA; solo così potrà crearsi un rapporto di consapevole fiducia nella macchina, che alimenterà la fiducia del paziente nella soluzione promossa dal medico.
Garantire un consenso informato reale e consapevole nell’era dell’IA è una sfida che richiede un impegno congiunto da parte di istituzioni, medici e pazienti.
NOTE
[1] F.G. Murone, Responsabilità medica e Intelligenza artificiale nel diritto unionale e italiano, in IusInItinere, 4 ottobre 2021
[2] Sul punto si legga C. Casonato, B. Marchetti, Prime osservazioni sulla proposta di Regolamento dell’UE in materia di Intelligenza artificiale, in BioLaw Journal, 3, 2021, in particolare 19, dove gli autori affermano come «la mera attribuzione di un diritto ad una decisione che sia frutto di una verifica umana (un diritto all’umanità nella decisione, potremmo sintetizzare) sia destinata a rimanere lettera morta (come,temiamo, l’art. 22 del GDPR) se non assistita da una serie di misure che ne rendano concretamente possibile l’applicabilità.
[3] European Group on Ethics in Science and New Technologies (EGE) 2015
[4]Comitato Nazionale per la Bioetica, Comitato Nazionale per la Biosicurezza le Biotecnologie e le Scienze della Vita (CNB e CNBBSV) 2020. “Intelligenza artificiale e medicina: aspetti etici”
[5] A. CARMINATI, Libertà di cura e autonomia del medico, Cacucci, Bari, 2018, spec. pp. 19 ss.
VIMERCATI, Consenso informato e incapacità. Gli strumenti di attuazione del diritto costituzionale all’autodeterminazione terapeutica, Giuffrè, Milano, 2014, spec. pp. 18 ss.
[6] Ibidem nt.6
[7] C. DE MENECH, Intelligenza artificiale e autodeterminazione in materia sanitaria, in BioLaw Journal – Rivista di BioDiritto, n. 1, 2022, pp. 193 s.
[8] V. DANIELE, AI e consenso informato del paziente: quando è possibile, le questioni da risolvere, in agendadigitale.eu, 21 luglio 2022
PAROLE CHIAVE: autonomia / bias / consenso / decisioni / deskilling / IA / medico / paziente / responsabilità / telemedicina
Tutti i contenuti presenti in questa rivista sono riservati. La riproduzione è vietata salvo esplicita richiesta e approvazione da parte dell’editore Digitalaw Srl.
Le foto sono di proprietà di Marcello Moscara e sono coperte dal diritto d’autore.