Mercoledì scorso, il Parlamento europeo ha approvato la legge sull’intelligenza artificiale con cui si cerca di creare una disciplina che bilanci lo sviluppo tecnologico con la tutela dei diritti fondamentali dei cittadini. Ma cosa contiene il documento? Quale sarà il prossimo step? UniTrentoMag ha chiesto un parere a Barbara Marchetti, professoressa di Diritto amministrativo alla Facoltà di Giurisprudenza dell’Università di Trento, titolare del corso su Amministrazione pubblica e innovazione tecnologica, che da anni si occupa di amministrazione pubblica e intelligenza artificiale.
Professoressa Marchetti ci racconta che cos’è l’AI Act? E a che cosa serve?
«L’AI Act è uno strumento regolatorio complesso: è composto da 180 “considerando”, 113 articoli e 13 allegati, e si occupa di regolare le condizioni per l’immissione nel mercato e la messa in servizio nell’Unione europea di sistemi di intelligenza artificiale, secondo un approccio proporzionato al rischio. Il regolamento entrerà in vigore 21 giorni dopo la pubblicazione in Gazzetta Ufficiale, ma alcune parti saranno applicabili solo 24 o 36 mesi dopo, come nel caso della regolamentazione dei sistemi ad alto rischio. Servirà anche un lavoro di elaborazione da parte dell’AI Office della Commissione per la stesura di linee guida e l’emanazione di standard tecnici a cui si dovranno attenere i fornitori dei sistemi. Ci sono inoltre norme che lasciano aperti spazi di interpretazione, che potranno essere colmati dagli Stati».
Come valuta il documento dal suo punto di vista? Lo ritiene soddisfacente?
«Sicuramente è un buon punto di partenza, con qualche difetto, forse inevitabile. Nel processo di formazione sono intervenuti tanti attori pubblici e privati, in ragione anche dei molti ambiti applicativi dell’intelligenza artificiale. Ed è un regolamento destinato a influenzare qualsiasi fornitore, anche extra comunitario, che voglia conquistare con i suoi sistemi il mercato europeo: per questo si parla di “Brussels effect”, cioè la capacità dell’Unione Europea di regolare il mercato globale. Un effetto simile si è avuto anche con il GDPR – il regolamento europeo sulla protezione dei dati – che ha avuto un impatto ben oltre i confini dell’Unione europea. Come tutti i testi legislativi, dobbiamo poi vedere che vita avrà, gli standard e le linee guida che seguiranno, l’efficienza del sistema di governance. Il dibattito e la riflessione scientifica che lo accompagneranno, la sua capacità effettiva di mitigare i rischi dell’intelligenza artificiale potranno poi suggerirne una correzione in corso: ciò che conta è che su di esso si possa avere un dialogo tra saperi e sensibilità diverse, quella tecnologica e quella etica e giuridica».
Nonostante sia comunque una tecnologia presente da decenni, solo negli ultimi anni si è sentito parlare così tanto di intelligenza artificiale.
«Si inizia a parlare sempre più di intelligenza artificiale perché se ne fa ora un uso massiccio in diversi settori, perché vi è una quantità sempre maggiore di dati in formato digitale, fondamentale per sviluppare l’intelligenza artificiale e perché si hanno sempre maggiori capacità computazionali. Inoltre è sempre più evidente quanto le applicazioni di intelligenza artificiale influenzino la società civile, l’economia, l’arena politica e gli stessi equilibri geopolitici: per questo occorre regolarla. In questo momento l’Unione Europea è l’attore globale che più di tutti sta cercando di trovare un equilibrio tra innovazione tecnologica e tutela dei diritti. E lo fa vietando proprio alcuni sistemi a rischio inaccettabile, prevedendo requisiti specifici per i sistemi ad alto rischio, e consentendo la circolazione a sistemi che presentano rischi limitati o minimi».
Quali sono le grosse sfide che deve affrontare l’intelligenza artificiale oggi, secondo lei?
«Nella stesura dell’AI Act è stato difficile bilanciare la tutela dei diritti della persona e lo sviluppo tecnologico. La sfida maggiore per il regolamento, in questo senso, è consentire lo sviluppo e la circolazione di un’intelligenza artificiale che sia antropocentrica e funzionale al benessere della società. L’obiettivo è di vietare quella che può minacciare i diritti fondamentali delle persone, il diritto alla privacy o la sicurezza degli individui. Il regolamento affronta ad esempio il problema dei possibili risultati discriminatori degli algoritmi in ragione dei bias presenti nei dati, predisponendo regole specifiche sulla qualità e sulla governance degli stessi. Non possiamo, infatti, accettare che una macchina generi delle decisioni discriminatorie in settori delicati come quelli, ad esempio, del controllo alle frontiere o della giustizia. Un ulteriore focus sta nella garanzia della “sorveglianza umana” – o “human in the loop”, considerata centrale per garantire un’intelligenza artificiale antropocentrica e rispondente ai valori fondamentali dell’Unione europea».
L’intelligenza artificiale è stato anche il principale argomento del G7 che si è svolto in questi giorni proprio a Trento. Qui, si è parlato soprattutto dell’utilizzo di intelligenza artificiale nel settore pubblico, con una particolare attenzione ad assicurare ai cittadini un accesso facile, intuitivo e sicuro ai servizi pubblici essenziali. Troviamo traccia di questo anche nell’AI Act?
«Nell’applicazione dell’intelligenza artificiale nella pubblica amministrazione il profilo di maggiore criticità è legato al fatto che l’amministrazione deve rispondere a un principio di trasparenza e pubblicità. Il problema però è che molti sistemi non possono garantire questa trasparenza, perché l’intelligenza artificiale basata sull’apprendimento automatico è in sé opaca. Non riesce a spiegare perché, dati certi input, la macchina generi quegli output. Se non si riesce a spiegare al cittadino il perché di una decisione presa sulla base di un algoritmo è ovvio dunque che l’impiego da parte della pubblica amministrazione sia critico. Altri usi – per esempio in funzione conoscitiva o di chatbot – non pongono gli stessi problemi. L’AI Act è consapevole di questo e prevede per esempio un obbligo specifico verso le amministrazioni, che devono spiegare al destinatario finale che ruolo ha avuto il sistema di intelligenza artificiale nel procedimento che ha portato alla decisione finale. Ovviamente spiegare che ruolo ha avuto la macchina nel processo decisionale non vuol dire spiegare perché la macchina abbia generato quell’output. Ecco perché spesso vengono definite ‘black box’, sistemi che, come scatole nere, danno risposte ma non spiegazioni su come le hanno ottenute. E questa resta una differenza importante».
Rispetto alle nuove tecnologie e all’intelligenza artificiale in particolare una parte della cittadinanza mostra un certo scetticismo. Una regolazione come l’AI Act potrebbe aiutare? Come si potrebbe promuovere un uso maggiormente consapevole dell’intelligenza artificiale?
«Si, gli stessi creatori dell’intelligenza artificiale auspicano da tempo una normativa. Lo ha fatto perfino Elon Musk. La regolazione è dunque necessaria e credo sia percepita così anche dalla cittadinanza. Tra i primi articoli del regolamento si fa riferimento all’importanza della AI Literacy per far sì che gli utilizzatori abbiano consapevolezza dei vantaggi ma anche dei limiti dell’intelligenza artificiale, e sviluppino così un senso critico. Se riuscissimo a inserire nei cicli di istruzione questa consapevolezza avremmo già fatto un buon lavoro di mitigazione dei rischi».
Tornando al G7 che si è tenuto a Trento, che idea si è fatta? Perché è stata scelta proprio la nostra città?
«Trento è per varie ragioni un contesto ideale per una riflessione anche politica sull’intelligenza artificiale. La nostra Università la studia in un’ottica interdisciplinare: da un lato vi è la ricerca del Dipartimento di Ingegneria e Scienza dell'Informazione, ma anche altri dipartimenti fanno ricerca sulle implicazioni economiche, ambientali, etiche e giuridiche, come avviene ad esempio da noi a Giurisprudenza. Inoltre sul territorio c’è un altro attore fondamentale per l’intelligenza artificiale che è la Fondazione Bruno Kessler. Anche le istituzioni pubbliche sono sensibili e percorrono la strada dell’innovazione tecnologica. Penso ad esempio al Comune di Trento. Ciò che è sempre più evidente tuttavia è che non si tratta solo di sviluppare sistemi di intelligenza artificiale ma anche di comprenderne le implicazioni e valutarne i rischi, secondo un approccio multidisciplinare».