© Adobe Stock

Ricerca

L’accordo europeo che sfugge

Il regolamento sull’intelligenza artificiale può non essere efficace per la protezione dei dati. Ne parliamo con Roberto Caso

22 gennaio 2024
Versione stampabile
Paola Siano
Ufficio Stampa e Relazioni esterne

Quando si cammina sul terreno dell’intelligenza artificiale, bisogna farlo con cautela. Il confine tra ciò che è legittimo fare e quello che non lo è, è sottile. Consapevole di questo pericolo, a dicembre Commissione, Consiglio e Parlamento europeo hanno approvato l’Ai Act, la normativa che regolamenterà l’intelligenza artificiale. È il primo documento al mondo di questo tipo. Nelle intenzioni, un’iniziativa positiva. Ma che nei fatti rischia di essere deludente in termini di sicurezza e protezione dei dati. Ne abbiamo parlato con Roberto Caso, professore di Diritto privato comparato, componente della Commissione per la Scienza aperta

«La buona notizia è che sembra esserci l’intenzione di rafforzare la regolamentazione giuridica già esistente». Esordisce così il docente quando gli chiediamo di spiegarci l’aspetto innovativo di questo accordo. «È una buona notizia – riprende – perché prima che si discutesse di una regolamentazione organica e auspicabilmente efficace della materia, stava passando un approccio che vedeva nell’etica e nell’autoregolamentazione le vie maestre per contenere i rischi legati all’uso di questa famiglia di tecnologie che passa sotto l’espressione, per tanti versi impropria, di intelligenza artificiale». Con questo regolamento l’Unione europea dichiara di voler rendere più efficace il quadro normativo che già esiste e fa riferimento, in primo luogo, al regolamento generale di protezione dei dati personali. Il machine learning si basa infatti sull’addestramento che implica un massivo di dati, per la maggior parte personali. Ma l’attuale regolamentazione non sarebbe sufficiente a garantire la tutela dei diritti fondamentali e la tenuta della democrazia. «L’idea di fondo dell’Unione Europea – spiega Caso – è trovare un compromesso tra la tutela delle persone e quella dell’innovazione, per fare in modo che l’Europa non resti indietro nella ricerca rispetto a paesi come Stati Uniti e Cina».  Sulla carta, i buoni propositi sembrano esserci. Ma le perplessità non mancano.  «Il documento normativo è molto lungo e paradossalmente – sottolinea il professore – non c’è ancora un testo definitivo. Questo è già indice di un problema relativo alla trasparenza del processo legislativo. Le nostre riflessioni si devono basare su scritti precedenti, cioè sulla proposta della Commissione risalente all’aprile 2021 e sugli emendamenti del Parlamento del giugno 2023». L’attuale Commissione europea sta normando la società digitale sotto diversi profili, e il regolamento sull’intelligenza artificiale automatico è solo una parte di questa strategia. L’Ai Act utilizza un approccio “basato sul rischio”, concentrandosi sulle tecnologie con il maggior potenziale di danno. Ci sono quattro categorie di rischi: minimi, limitati, alti, inaccettabili. Maggiore è il rischio, maggiori le responsabilità per chi sviluppa o utilizza sistemi di intelligenza artificiale. Non saranno autorizzate le applicazioni considerate troppo pericolose, come ad esempio i sistemi di categorizzazione biometrica che fanno riferimento a dati sensibili, il riconoscimento delle emozioni sul posto di lavoro o a scuola, le applicazioni usate per manipolare la volontà delle persone. «Il modello generale di questo tipo di regolamentazione rimane il Regolamento generale per la protezione dei dati personali che implica una classificazione della tipologia di dati personali. Ci sono poi obblighi e requisiti riguardo alle caratteristiche dei sistemi di intelligenza artificiale per fare in modo che questi siano poi compatibili con i diritti fondamentali e la democrazia nonché specifiche autorità di controllo». Sembra quindi che l’impianto normativo si basi sulla volontà di prevenire il danno prodotto dal sistema. Un aspetto che ha messo sull’attenti le grandi imprese commerciali che già operano nel campo dell’intelligenza artificiale. «Quello che è successo in questi mesi di elaborazione del regolamento, ed è stato denunciato da molti osservatori – racconta il professor Caso – è che c’è stato un fortissimo lobbying per avere delle regole meno stringenti da parte di aziende e grandi big tech operative in regime di monopolio e che sono in possesso già molti dati, anche personali. Imprese che hanno cercato di influenzare il legislatore per il loro interesse privato, commerciale e politico». Una situazione che è tutta in divenire quindi. Un gioco di equilibri tra il rispetto dei fondamenti di una società democratica e la spinta allo sviluppo di tecnologie sempre più innovative e impattanti sulla vita delle persone. Roberto Caso è cauto sulle prospettive. «I tanti casi che si sono materializzati e i danni prodotti alle persone hanno dimostrato che del diritto c’è bisogno. Non basta l’autoregolazione basata sull’etica dell’intelligenza artificiale. Basti pensare al famoso caso di un software negli Stati Uniti che incorporava presupposti discriminatori che conducevano a ipotizzare un più elevato rischio di recidiva per una determinata persona in base al colore della pelle». Qual è il rischio maggiore che intravede in questo momento?  «Che ci siano tanti principi che poi siano smentiti e traditi dai fatti». Come è stata accolta la notizia dell’Ai Act a livello di comunità scientifica a Trento? Si è aperto un dibattito? «Nel nostro Ateneo c’è molta attenzione, anche sul piano giuridico e non solo tecnologico, sul tema dell’intelligenza artificiale. Abbiamo gruppi di ricerca, come il Gruppo LawTech e il Gruppo di biodiritto e singoli ricercatori che da diversi anni studiano e fanno didattica sui profili giuridici dell’apprendimento automatico. Ricordo inoltre, solo per fare un paio di esempi, i corsi complementari di Diritto dell’era digitale e di Intelligenza artificiale e diritto. Le nuove generazioni percepiscono l’importanza di questo settore, sia per una ragione di prospettive professionali ma anche per interesse culturale. Tante volte gli studenti mi dicono che abbiamo aperto una finestra su un nuovo mondo giuridico. In realtà il diritto ha sempre avuto a che fare con le tecnologie. Non c’è niente di più classico di questo legame. Lo hanno ben evidenziato le ricerche del professor Giovanni Pascuzzi che per trent’anni ha insegnato nell’Università di Trento e ora è Consigliere di Stato».