Mercoledì 24 Aprile 2024

Riconoscimento facciale nel mirino. "Usa le foto dei social per schedarci"

Clearview AI è il software finito sotto accusa. Ecco come raccoglie le nostre immagini che non potrebbe usare

Un sistema di riconoscimento facciale

Un sistema di riconoscimento facciale

Il sogno di ogni regime e di tutti i papà gelosi. Clearview AI è il software di riconoscimento facciale che, come ha titolato un annetto fa il New York Times, rischia di porre fine al concetto di privacy così come lo abbiamo conosciuto fino a oggi. E il bello è che le munizioni per l’arma fine di mondo le abbiamo fornite proprio noi alla start-up newyorchese. Perché il software messo a punto dall’azienda creata nel 2017 da Hoan Ton-That, ex modello australiano, e Richard Schwartz, politico e giornalista Usa, non fa altro che scaricare tutte le foto presenti sui social network e indicizzarle per somiglianza. Un uso spregiudicato del materiale postato sul web, che ha permesso in poco tempo a Clearview AI di costruire una banca dati con oltre 3 miliardi di immagini. Tanto per capirci, il software dell’Fbi per il riconoscimento facciale ha un archivio da 640 milioni di immagini. Sari, il programma analogo utilizzato dalla polizia italiana, può sfogliarne 10 milioni. Già i numeri danno un’idea della potenza di fuoco. In parole povere, se avete aperto un profilo su qualunque social e ci avete messo una vostra foto, al 99% sarete finiti nell’archivio di Clearview AI (anche se in teoria i cittadini dell’Unione europea dovrebbero dare il loro assenso).

E per saperlo basta poco. "È sufficiente fare una richiesta sul loro sito e dopo circa un mese – spiega Luca Zorloni, giornalista di Wired.it – si avrà la risposta. È così che ho scoperto che avevano nel loro database tredici mie foto. Non sono rimasto molto meravigliato: sapendo come operano, cioè raccogliendo davvero di tutto, me lo aspettavo. Mi sono immediatamente rivolto al garante della privacy e ho chiesto a Clearview AI di rimuovere gli scatti. Lo hanno fatto dopo una decina di giorni. Ovviamente ci si deve fidare della loro parola".

Se siete già un po’ preoccupati, scorrere la lista di chi utilizza il software non vi farà tornare il sorriso. Secondo una fuga di notizie di qualche mese fa, sono almeno 2.200 le organizzazioni – sparse in 27 Paesi – che hanno aperto un account su Clearview AI. Non si sa se abbiano solo effettuato una prova gratuita (possibilità concessa per 30 giorni) o abbiano acquistato il software (che costa circa 2 mila dollari a licenza per ogni anno). In ogni caso nell’elenco, accanto a diverse forze di polizia (tra cui Scotland Yard e anche il nostro 113), ci sono diversi soggetti privati. Walmart, Macy’s e la Nba, per esempio, hanno testato il software non si sa per quali scopi. Probabilmente per identificare clienti dalle mani troppo lunghe o saltatori professionisti di tornelli. Nella lista non potevano ovviamente mancare Arabia Saudita ed Emirati. I due Paesi del Golfo, quando c’è da invadere la privacy di qualcuno, si sa che non si tirano mai indietro. Parrebbe brutto, anche solo per una vota, fare bella figura.

I giganti della Silicon Valley – tra cui Google, Twitter e Facebook – hanno intimato Clearview AI di smetterla, minacciando azioni legali. La società newyorchese si è difesa, spiegando che lavora come un semplice motore di ricerca, con la differenza che lo fa attraverso le immagini e che comunque nel loro database agli scatti non sarebbero associati nomi. Diversi Stati, in ogni caso, hanno deciso di vietare l’uso del software. "Gli oscuri meccanismi con cui la società fa pesca a strascico delle foto e su come le utilizzi sono preoccupanti. In Europa – spiega Zorloni – bisogna dare il consenso, ma loro a me non lo hanno chiesto. Serve molta più trasparenza".

Ma ci sono anche singoli individui a cui è stato concesso il privilegio di utilizzare la app. Eh, sì, perché basta un semplice smartphone per avere a disposizione un software di riconoscimento facciale 5 volte più potente di quello che usa l’Fbi e con un grado di precisione che, secondo Hoan Ton-That, raggiunge il 99,6%. Il miliardario John Catsimatidis è tra questi. Già nel 2018 aveva installato sul suo telefonino il programma-spia. E quando sua figlia Andrea è uscita a cena per un appuntamento galante con una persona che il re dei supermarket non conosceva ha semplicemente scattato di nascosto una foto dell’aspirante fidanzato. In pochi secondi Clearview AI gli ha permesso di scoprire che quello a pranzo con sua figlia era un broker. Papà Catsimatidis ha subito spedito il report alla figlia via sms: "Volevo essere sicuro che non uscisse con un ciarlatano". Ma al di là dei genitori gelosi, il vero nodo è quello di un Stato (o di privati, cosa ancora più pericolosa) il cui occhio può arrivare sempre lontano. L’età dell’oro della sorveglianza, come profetizzava Peter Swire, è già qui.