Guerra cibernetica, guerra dell’informazione, armi autonome letali e cyber diplomazia sono termini entrati nel lessico utilizzato per descrivere i troppi conflitti che ancora oggi sconvolgono il pianeta. Il digitale e l’intelligenza artificiale hanno moltiplicato la potenza dei sistemi d’arma, automatizzando e spersonalizzando al contempo l’azione di uccidere e distruggere. Ne parliamo con Gian Piero Siroli, ricercatore al Dipartimento di Fisica e Astronomia dell’Università di Bologna, Computer Security Officer del progetto Cms del Cern e relatore il prossimo 14 novembre al Dipartimento di Fisica UniTrento dell’incontro The dark side of digital technologies.
Professor Siroli, cosa intendiamo con i termini cyber-warfare e information-warfare?
«Con cyber-warfare ci si riferisce al mondo Ict, information and communication technology, quindi a tutto ciò che è collegato alla digitalizzazione del campo di battaglia e dei domini bellici tradizionali, terra, aria, mare e spazio. Information-warfare invece si sviluppa a livello semantico utilizzando i flussi di informazione veicolati attraverso internet. Cyber-warfare e information-warfare sono due ambiti complementari. Il secondo ambito, prevede tecniche vecchie di secoli se non di millenni, come propaganda, disinformazione, creazione del consenso, manipolazione sociale. Di fatto, il mondo cibernetico è diventato anche un campo di battaglia».
È possibile indicare un momento in cui questo è successo?
«C’è stata un'evoluzione naturale dall'elettronica al mondo digitale. Se vogliamo individuare un momento di passaggio, o perlomeno di presa di consapevolezza, possiamo guardare a una decina d’anni fa, nel 2010, quando è stato reso pubblico l’uso di Stuxnet, la prima arma cibernetica. Si tratta di una sorta di virus informatico creato per colpire e mettere fuori uso le infrastrutture iraniane per l’arricchimento di uranio».
Il 14 novembre si parlerà anche di cyber diplomacy. Di cosa si tratta?
«Per cyber diplomacy si intendono le iniziative prese a livello internazionale per coordinare, gestire e trattare le tecnologie dell’informazione e della comunicazione. Come abbiamo detto, queste tecnologie comportano conseguenze a livello della sicurezza internazionale. Stuxnet ne è une esempio, ma ci sono decine di armi tecnicamente diverse ma concettualmente simili. E poi c’è appunto il rischio di manipolazione di gruppi sociali».
Parlando di diplomazia, qual è il ruolo delle Nazioni Unite?
«L'Onu ha riconosciuto che le tecnologie Ict, oltre a essere un importantissimo strumento di sviluppo, comportano rischi enormi. Per questo ha cominciato a occuparsene più di dieci anni fa con risoluzioni ad hoc. Ha poi creato un gruppo di lavoro composto da una ventina di paesi con l’obiettivo di preparare report annuali. Un secondo gruppo di lavoro, l’Open-Ended Working Group (Oewg), è invece aperto a tutti i paesi membri e non solo. È un gruppo multi-stakeholder, a cui possono partecipare anche rappresentanti del mondo accademico, del mondo privato e della società civile. C’è poi un terzo gruppo di lavoro sull'Artificial Intelligence che fa riferimento al Segretario Generale dell’Onu.
È interessante il fatto che l'Oewg produca un report annuale solamente se c’è l'unanimità dei paesi rappresentati. Questo è il terzo anno di seguito che il report viene pubblicato, nonostante la situazione internazionale estremamente critica. Il gruppo è rimasto uno dei pochi canali aperti dal punto di vista diplomatico, l’unico spazio in cui parlarsi e confrontarsi su questi temi. Il mandato dell’Oewg terminerà però il prossimo anno e da qui ad allora sarà necessario ingegnerizzare i meccanismi per rendere stabile questo canale».
Anche lei lavora all’interno dell’Oewg?
«Sì, rappresento la Pugwash Conferences on Science and World Affairs, un'organizzazione internazionale fondata nel 1955 sulla base di un manifesto Einstein-Russell per il disarmo nucleare. Almeno una volta all’anno vado a New York per partecipare alle riunioni».
Tornando all'incontro di giovedì prossimo, quali dilemmi etici pone l’uso militare dell'intelligenza artificiale?
«L'intelligenza artificiale è sempre più coinvolta nei sistemi di arma autonomi, soprattutto nei sistemi d'arma letali. Ci sono sistemi d'arma che possono agire in modo completamente indipendente dall'essere umano, determinare i bersagli, colpire e uccidere. Questo pone numerose questioni etiche sul tema della responsabilità».