Algoritmi molto complessi, come quelli posti alla base dei sistemi di intelligenza artificiale (IA), operano meglio in contesti ben definiti e in situazioni stabili, in cui è disponibile una grande mole di dati. Al contrario, l’intelligenza umana si distingue per la sua capacità di affrontare situazioni di incertezza, a prescindere dalla quantità di dati a disposizione. Alla luce di questa considerazione dello psicologo Gert Gigerenzer, viene da chiedersi come mai l’IA abbia assunto una rilevanza così imponente in tempi di elevata incertezza e instabilità come gli attuali. Lo si deve probabilmente a due ragioni. Per un verso, quella grande mole di dati, se correttamente utilizzata, riduce almeno in parte l’incertezza. Per l’altro, deve convenirsi che la vera rivoluzione indotta dall’uso dell’IA è legata non alla sua capacità di sostituirsi all’intelligenza umana, ma a quella di combinarsi con essa secondo una logica di complementarità e strumentalità. Al tempo stesso l’affermazione di Gigerenzer suggerisce un sano senso del limite, una pausa di riflessione.
In questa pausa di riflessione può farsi strada quell’importante correlazione tra opportunità, rischi e responsabilità, che non può, non deve sfuggire a qualsiasi analisi sull’IA. È questo l’approccio seguito da un gruppo di ricerca della Facoltà di Giurisprudenza dell’Università di Trento, che, nel contesto del Progetto europeo JuLIA, si occupa, in collaborazione con FBK e altri nove partner europei, coordinati dall’UPF di Barcellona, dell’impatto dell’IA sui diritti fondamentali in diversi ambiti e contesti: dalla giustizia alla pubblica amministrazione, dal mercato e le relazioni di consumo alla medicina e le relazioni di cura, ambito quest’ultimo rispetto al quale UniTrento ha la leadership della ricerca.
Proprio nel campo della medicina, la correlazione tra opportunità, rischi e responsabilità si impone con evidenza. Le prime, le opportunità, dominano ormai il dibattito scientifico (e non) da diverso tempo. In ambito diagnostico, ad esempio, l’IA consente di incrementare il livello di precisione nella lettura di immagini o campioni. In ambito chirurgico, è in grado di indicare la sede di intervento del chirurgo con un grado di accuratezza superiore a quella altrimenti praticata, e di prevenire e talora correggere l’errore umano ben oltre quanto sperimentato nell’interazione tra colleghi che operano in équipe. Nel corso della pandemia da Covid-19, l’IA è stata utilizzata per migliorare i processi di predizione dell’andamento dei contagi e quelli di monitoraggio dell’infezione. Nel campo della ricerca, ha di recente suscitato un certo clamore la notizia dell’impianto di un microchip nel cervello di un paziente affetto da paralisi con l’obiettivo di consentire a quest’ultimo di comunicare direttamente con il computer.
Non possiamo però tacere i rischi. Se l’errore umano è tra le cause principali di morte del paziente, l’errore di un sistema di IA (più o meno probabile che sia rispetto a quello umano) è in grado di produrre conseguenze esponenzialmente più estese, data la sua capacità di replicazione e data l’opacità che (ancora) caratterizza molti di questi sistemi. La selezione dei dati, con cui il sistema di IA viene ‘allenato’, è cruciale: da essa dipende non solo il rischio di replicazione degli errori, ma anche quello di alimentare pregiudizi (bias) fondati su una scarsa rappresentatività dei dati (relativi, ad esempio, solo a persone di una certa etnia o di un dato genere) rispetto alle più ampie potenzialità di utilizzo dello strumento. Il rischio che l’IA produca discriminazioni piuttosto che una medicina personalizzata è correlato al disegno del sistema di IA, la cui ‘sicurezza’ va valutata e monitorata in ogni fase come si fa (già oggi) per le strumentazioni mediche prima e dopo la loro immissione in commercio. Ancora, proprio perché strettamente dipendente dalla raccolta ed elaborazione di dati, per lo più sanitari e dunque sensibili, l’uso dell’IA non può prescindere da un’attenta valutazione di impatto sulla protezione dei dati personali, per quanto sottoposti a forme più o meno integrali di anonimizzazione. Non ultimo è l’impatto che l’IA produce sull’autodeterminazione del paziente: non solo perché una persona potrebbe rifiutarsi di alimentare, con dati propri, lo strumento di IA, ma anche perché potrebbe rifiutare l’impiego di quello strumento o chiedere che i suoi risultati siano confrontati con quelli di strumenti tradizionali.
Che a tutti questi rischi (e ad altri qui non richiamati) debba corrispondere una piena assunzione di responsabilità è alla base dei recenti sviluppi nel quadro normativo europeo, di cui il cosiddetto AI Act, appena approvato dal Parlamento europeo, rappresenta il primo e fondamentale tassello. Uno strumento che consentirà di vietare l’uso di strumenti di IA che determinano un rischio intollerabile (anche per l’impatto reale o potenziale sulla salute) e che introduce meccanismi di controllo preventivi e in corso di sistemi di IA considerati ad alto rischio, definendo in ogni caso più generali obblighi di trasparenza applicabili a tutti i sistemi di IA, anche se a basso rischio.
Che tipo di impatto produrrà questa prima forma di regolazione nel contesto della medicina assistita dall’IA? Come occorrerà tenerne conto nel disegno delle politiche sanitarie, nell’organizzazione degli ospedali, nella relazione di cura, nella ricerca clinica? Come cambierà la responsabilità medica e in che misura potrà imputarsi al medico o all’ospedale l’errore generato dal sistema di IA? Questi alcuni degli interrogativi su cui lavora il Progetto JuLIA, in un dialogo interdisciplinare che ha fatto tappa anche a Trento e che ha come meta finale il bilanciamento di innovazione e tutela dei diritti fondamentali.