Nell’era dell’algoritmo, si è scatenato uno tsunami di immagini, generate da software e tecnologie che usano l’intelligenza artificiale, che invadono la nostra quotidianità. Fotografie (ma anche video), artefatte eppure estremamente realistiche, spesso ispirate a persone famose reali. Il miglioramento dei programmi informatici per la creazione di questi contenuti ha aumentato le preoccupazioni di molte persone riguardo all’affidabilità dei mezzi di informazione e alla capacità del pubblico di distinguere i contenuti autentici da quelli manipolati. Ne parliamo con Jeroen Vaes, ordinario di Psicologia sociale al Dipartimento di Psicologia e Scienze Cognitive.
Una volta si diceva: vedere per credere. Ma cosa succede se quello che vediamo non esiste ed è una costruzione, un’invenzione, una falsità? Alcune foto “ritoccate” hanno fatto la storia. Una su tutte, quella del 1920 in cui il rivoluzionario sovietico Lev Trockij a causa della sua opposizione alle politiche staliniste fu cancellato dallo scatto che lo ritraeva in un comizio di Lenin. Il famoso bacio fra Leonid Breznev ed Erich Honecker realizzato nel 1990 dall’artista russo Dmitri Vrubel sui resti di Muro di Berlino ha ispirato nel tempo vari fantasiosi ritratti in cui leader o personaggi pubblici si baciavano allo stesso modo: da Donald Trump e Vladimir Putin a Luigi Di Maio e Matteo Salvini. Dai murales, si è passati oggi a foto e video creati con l’intelligenza artificiale: il provocatorio presidente americano Trump vestito da Papa, l’abbraccio pacificatore tra il leader russo Putin e quello ucraino Zelensky, l’inquietante scenario della martoriata Striscia di Gara trasformata in un paradiso turistico. Lo sviluppo delle tecnologie Deepfake che utilizzano l'intelligenza artificiale per manipolare immagini e video, creando contenuti che appaiono reali ma sono in realtà falsi, sta suscitando allarme. Tanto che il governo italiano sta lavorando a un disegno di legge sull’intelligenza artificiale che preveda un reato ad hoc.
Prima di analizzare l’impatto che questi contenuti possono avere a livello psicologico, cognitivo e sociale in chi li guarda, parlano i numeri che ci restituiscono la realtà – questa sì, vera – del fenomeno.
«Secondo alcune stime, il 57% dei contenuti che circolano online è creato da intelligenza artificiale. Nel 2024, al livello mondiale – dice Vaes – c’era una media di 34 milioni di immagini al giorno generate con l’intelligenza artificiale. Ciò vuol dire che da quando ci sono questi software in grado di generarle, ne sono state prodotte più di 15 mila miliardi. L’intelligenza artificiale ha impiegato un anno e mezzo per creare lo stesso numero di immagini che la fotografia tradizionale ha realizzato in 149 anni». Quello che una volta non esisteva era internet. La novità oggi è che questi sistemi informatici sono accessibili a chiunque. Con poche istruzioni, un prompt, il computer ci restituisce l’immagine che chiediamo. E questa viene condivisa in pochissimo tempo. «È stato dimostrato che la gente tipicamente ha la tendenza a credere alle cose che confermano le proprie opinioni e che sopravvaluta le proprie capacità di poter distinguere il vero dal falso. Quello che fa la differenza – sottolinea il professore – è proprio la diffusione di questi messaggi. Basta un clic sui social media e questo fa sì che le notizie false non hanno meno probabilità di essere viste rispetto a quelle vere. Anzi, siccome sono false spesso sono anche molto sensazionali».
L’algoritmo però non fa tutto da solo. Alle spalle ci sono persone, in carne e ossa, che danno gli input, a volte con chiari scopi. «Se esiste l’immagine di Trump vestito da Papa è perché qualcuno ha chiesto che venisse creata. Viviamo in un sistema in cui quello che viene propagandato è la menzogna e quella che invece viene censurata è la verità. La satira che va a estremizzare e ridicolizzare le cose che vengono dette diventa la realtà e questo secondo me ha come scopo quello di provare a smantellare il cosiddetto quarto potere. Di convincere che la notizia riportata dai giornalisti non è attendibile mentre lo è ciò che viene condiviso dai media che rispecchiano e amplificano la versione e le opinioni del potere politico». Si potrebbe dire che i contenuti generati da intelligenza artificiale confermano che ogni immagine è un’illusione. Così come il modo in cui interpretiamo la realtà. «E' un tema classico» risponde Vaes.
«Quello che noi vediamo – prosegue – è comunque un'interpretazione. Come esseri umani noi interpretiamo quello che vediamo e lo facciamo sempre, al di là se la cosa è vera o sbagliata, se è finta o falsa. Gli esempi sono tanti, dal fallo durante una partita di calcio a una manifestazione politica in piazza. L’interpretazione avviene a seconda che si sia a sostegno di una squadra o di un partito. E allora il fallo sarà inesistente e la piazza piena oppure vuota. Abbiamo tutti visto la stessa realtà, ma l'abbiamo interpretata in modo diverso». C’è il rischio però che quello che vediamo creato artificialmente, seppure fasullo, finisca per farci credere che sia veritiero. Oppure può generare delle aspettative, come nel caso dell’abbraccio tra Putin e Zelensky. Per un momento, ci si era illusi che una pace sarebbe stata possibile. «Una persona un po’ esperta capisce che quell’immagine è falsa e quindi scarta subito l’idea di un accordo», riflette Vaes. Questo fenomeno così dilagante può però stimolare le persone a fare uno sforzo in più e guardare le immagini con sguardo critico. A uscire dal buio dell’ingenuità. È necessario dubitare ed essere critici. Uno dei cardini del sapere scientifico e dell’università. «Quello che noi dobbiamo fare sempre di più è insegnare alle persone come consumare le notizie in modo più analitico ed essere consapevoli che qualsiasi informazione può essere parziale. Può essere anche completamente inventata. Questo elemento di finzione può creare una maggiore libertà di interpretazione», conclude il docente. Al realismo basato sul calcolo algoritmico è necessario anteporre l’impegno per una continua ricerca della verità, guardandola con occhi nuovi.