L’intelligenza artificiale generativa è uno strumento potente, ma non privo di rischi se non lo si conosce bene. Dalla violazione del copyright sui contenuti prodotti, alla cessione inconsapevole di informazioni personali e di ricerca che dovrebbero essere salvaguardate: le policy di Ateneo provano a creare maggiore consapevolezza. Ne parliamo con Fabrizio Granelli, delegato del rettore ai Servizi e alle tecnologie informatiche e Nicola Zanella, dirigente della Direzione Servizi digitali e bibliotecari, che hanno seguito l’iter di approvazione del documento.
Da quando nel 1972 è stata lanciata la prima calcolatrice scientifica tascabile, molto è cambiato nel modo di imparare e di insegnare. Il tempo passato a fare calcoli complessi può essere impiegato per perseguire obiettivi più ambiziosi. Oggi una rivoluzione analoga si prospetta con l’avvento dell’intelligenza artificiale generativa, che sta velocemente cambiando il modo di intendere l’apprendimento e la conoscenza. Il Senato accademico ha deciso di prendere una posizione su questo tema con un primo documento generale di policy, pubblicato sul portale di Ateneo, a cui potranno seguire altre azioni più specifiche in futuro.
«L’intelligenza artificiale generativa è uno strumento nuovo che offre delle potenzialità poco conosciute e che vanno gestite con buonsenso», spiega il delegato Fabrizio Granelli. «Quello che stiamo affrontando è un problema tecnologico e trasversale. Per stare al passo, dobbiamo riflettere sull’impatto che l’intelligenza artificiale generativa ha sulle nostre attività di base, sulla formazione e sull’informazione che produciamo. Con questo primo documento, chiariamo la nostra posizione, che definirei ‘neutra’, con un’attenzione a mantenere la persona al centro delle nostre decisioni, anche in fatto di tecnologia. L’IA generativa è utile, non va limitato l’utilizzo. Ma allo stesso tempo bisogna essere consapevoli dei suoi limiti. Un po’ come per la calcolatrice: all’inizio ne avevamo paura. Poi abbiamo imparato a usarla, ci siamo adattati e oggi è uno strumento molto utile».
«La calcolatrice ha certamente cambiato il nostro modo di risolvere i problemi matematici - aggiunge il dirigente Nicola Zanella. Ma qui la questione è più complessa, soprattutto perché, diversamente dalla calcolatrice, la risposta della IA generativa a una nostra domanda non sarà mai la stessa. Non è precostituita. Varia, anche molto, a seconda di come viene costruito il prompt, cioè la richiesta, in linguaggio naturale, che formuliamo allo strumento di intelligenza artificiale. E la risposta può essere diversa a seconda del momento, della ricchezza o meno delle informazioni che diamo e che vengono ricavate dal contesto. Può portare con sé errori, imprecisioni, bias cognitivi. Quindi non avremo mai il solo e unico risultato, uguale per tutti e affidabile, che si può ottenere con la cara vecchia calcolatrice. Il risultato, invece, dovrà essere considerato un semilavorato da rivedere e fare proprio».
Oltre ad essere evidentemente in contrasto con gli elementi fondanti della ricerca, la potenziale mancanza di ripetibilità negli esiti dell’intelligenza artificiale necessita di essere compresa e governata in tutti i settori di interesse dell’Ateneo. L’utilizzo di questa tecnologia, ad ogni livello, non è in divenire. È già realtà. Spiega Zanella: «In questo senso, abbiamo rilasciato le applicazioni Gemini e Notebook LM, utilizzabili da tutta la comunità universitaria. Naturalmente più si sa come formulare al meglio i prompt, più si riesce ad avere risultati precisi e adatti ai nostri scopi. Ma il punto è che va cambiato il nostro approccio. È come mettere il turbo al nostro cervello: l’IA generativa ci aiuta a riordinare le tante informazioni, a focalizzarci sui punti rilevanti, a trovare più velocemente eventuali anomalie su cui far lavorare il pensiero umano e la nostra genialità. È una sorta di acceleratore delle nostre capacità mentali. Ma l’ultimo miglio tocca sempre a noi».
«Per capire quanto sia sfuggente il meccanismo che regge il sistema basta fare una prova» chiarisce Granelli. «Ho chiesto all’intelligenza artificiale di elaborare una mia breve biografia e il risultato mi ha sorpreso. Conteneva informazioni prese chissà dove ed esaltava aspetti che considero minori. Ecco perché è importante avere coscienza, nel nostro lavoro, che il sistema può sbagliare. E anche di molto, perché funziona come una specie di frullatore. Di fatto non propone nulla di originale. Ma proprio in questo rimescolamento di contenuti stanno i potenziali problemi. Ad esempio, diventa molto difficile rendersi conto di una violazione di copyright. Ecco perché servono poche regole che sono soprattutto di buonsenso e ispirate ai valori che già sono propri della nostra università».
Otto le regole di base contenute nelle policy. In primo luogo un richiamo all’integrità, trasparenza e onestà intellettuale, nella consapevolezza che un uso improprio può danneggiare la reputazione dell’Ateneo e minarne la credibilità. Poi un riferimento alla verifica e alla valutazione critica dei risultati ottenuti, per evitare di diffondere informazioni errate o non supportate da evidenze scientifiche. Un richiamo importante riguarda poi la responsabilità personale rispetto a errori, imprecisioni o bias che potrebbero tradursi in responsabilità civili, penali o danni reputazionali, ma anche il rispetto dei diritti d’autore, della proprietà intellettuale di terzi e della corretta citazione delle fonti.
Per creare un clima di trasparenza e fiducia - si legge nel documento – è necessario dichiarare esplicitamente l’uso della IA generativa nella creazione di contenuti per ricerca, didattica e amministrazione. Le policy invitano anche a prestare attenzione nella fase di addestramento, usando dati di qualità e prompt chiari e precisi. E fanno un riferimento esplicito alla necessità di tutelare dati personali e riservatezza delle persone e delle informazioni. Infine un richiamo a considerare l’alto consumo energetico legato all’addestramento e all’uso dei modelli di intelligenza artificiale. La consapevolezza come primo passo per affrontare il cambiamento con spirito critico e senso di responsabilità.