di Letizia Cini I casi eclatanti? Il discorso di Zuckerberg sul controllo del futuro nel video-appello pubblicato su Instagram l’estate dello scorso anno. O le immagini di Nancy Pelosi ’ubriaca’ in una sequenza postata su Facebook e Twitter nella primavera 2019, che mostrano la presidente della Camera dei rappresentanti statunitense rallentata nei movimenti. Bufale del web migrate nel mondo reale facendo chiedere al mondo: "Possibile?". Siamo nel campo delle deepfake, tradotto: video con immagini altamente realistiche create tramite tecniche avanzate di intelligenza artificiale. "Una manipolazione sofisticata e profonda, subdola e pervasiva, capace di trarre in inganno il cervello umano, che a volte non riesce a distinguere tra artificiale e naturale" spiega Alessandro Piva, professore del Dipartimento di Ingegneria dell’Informazione di Firenze a capo...

di Letizia Cini

I casi eclatanti? Il discorso di Zuckerberg sul controllo del futuro nel video-appello pubblicato su Instagram l’estate dello scorso anno. O le immagini di Nancy Pelosi ’ubriaca’ in una sequenza postata su Facebook e Twitter nella primavera 2019, che mostrano la presidente della Camera dei rappresentanti statunitense rallentata nei movimenti. Bufale del web migrate nel mondo reale facendo chiedere al mondo: "Possibile?".

Siamo nel campo delle deepfake, tradotto: video con immagini altamente realistiche create tramite tecniche avanzate di intelligenza artificiale. "Una manipolazione sofisticata e profonda, subdola e pervasiva, capace di trarre in inganno il cervello umano, che a volte non riesce a distinguere tra artificiale e naturale" spiega Alessandro Piva, professore del Dipartimento di Ingegneria dell’Informazione di Firenze a capo dell’unità di ricerca impegnata nell’identificazione di possibili manipolazioni in contenuti multimediali.

Di cosa si tratta, professore?

"Due università italiane, la nostra e quella di Trento, stanno collaborando a un progetto finanziato dall’Agenzia governativa del dipartimento della Difesa degli Stati Uniti: obiettivo, rilevare e tracciare in rete contenuti multimediali manipolati e potenzialmente diffamatori".

Dopo il fotomontaggio e le fake news, la nuova frontiera del falso si chiama deepfake?

"Sì, un fenomeno temuto e combattuto negli States, dove hanno impegnato forze investigative e informatiche, chiedendo collaborazioni anche in Europa, per riconoscere i falsi video e per ricostruirne la catena di elaborazioni subite dal dato multimediale, da quando viene generato alle condivisioni social, che ne aumentano l’effetto".

Software che spoglia le donne, discorsi di un capo di Stato modificati, scene capaci di mandare la reputazione di un politico in frantumi, truffe. Universi possibili: in Italia a che livello di allarme siamo?

"Fortunatamente da noi per ora l’utilizzo è, per così dire, ’ludico’: i fuori onda di Matteo Renzi su Striscia la notizia, i video di Nicolas Cage che sembra recitare in Indiana Jones divertono, ma possono destabilizzare".

In che senso?

"Si dice sempre che un’immagine vale più di mille parole: abbiamo (forse) imparato a mettere in dubbio ciò che leggiamo, ma siamo portati a credere comunque a ciò che vediamo. Ecco, questa è la grande differenza".

Con quali rischi?

"In campo politico, false immagini possono screditare gli oppositori. Ma si possono creare prove per accusare o discolpare un presunto omicida, un terrorista, distruggere la credibilità di un’azienda. Per questo negli ultimi anni la comunità scientifica ha prodotto molte tecniche per la rivelazione automatica delle manipolazioni sia di immagini sia di video e si è sviluppato un nuovo ramo del signal processing noto come ’multimedia forensics’. Ma non esiste un manuale al quale fare ricorso, purtroppo, e la tecnologia si evolve di giorno in giorno. All’inizio della nostra attività, le possibili manipolazioni erano molto limitate e riguardavano solo le immagini, a causa della complessità degli strumenti di editing e della ridotta capacità di calcolo a disposizione. Mentre oggi mediante algoritmi di intelligenza artificiale, per un video fake basta lo smartphone".

Dalle app che invecchiano ai ’giochi’ che consentono di trasferire i nostri volti su quello dei protagonisti di film famosi, i social sono un ambiente fertile per questi contenuti: difficile tracciarli?

"L’identificazione di manipolazioni è sempre più complessa. Nel caso delle app tanto di moda, saranno divertenti, è vero, ma bisogna tener presente che, quando facciamo l’upload della nostra foto originale, non sappiamo che fine faccia: la app è scaricata sui nostri smartphone, ma l’elaborazione non avviene sul cellulare bensì su un server che può essere in Cina, in Russia... La mia faccia può essere messa su un’altra immagine falsa per qualsiasi motivo".

Come fate a contrastare i progressi di chi crea falsi video?

"È tutt’altro che semplice: i deepfake vengono generati da tecniche di intelligenza artificiale che nel tempo lasciano tracce sempre più piccole. Il nostro lavoro è ’addestrare’ le tecnologie immettendo dati, quante più immagini possibili, ad esempio: questo dà loro modo al di accrescere le proprie competenze. Come accade agli esseri viventi, uomo compreso".