Domenica 13 Ottobre 2024
BRUNO ANTONIO MIRANTE
Economia

L’intelligenza artificiale e i rischi per i diritti umani

Il tema è stato dibattuto a Roma nel corso di un convegno promosso da The Good Lobby, Privacy Network ed Hermes Center

Roma, 3 giugno 2024 – I diritti umani come bussola per normare l’intelligenza artificiale. La voce e il ruolo cardine della società civile nello sviluppo delle nuove tecnologie tra governance e regolamentazione. Sono i temi al centro del dibattito mondiale ma che nei giorni scorsi sono stati l’oggetto di un convegno, promosso da The Good Lobby, Privacy Network ed Hermes Center, che si è svolto a Roma.

L'Eurocamera vota contro il riconoscimento facciale con l'IA
L'Eurocamera vota contro il riconoscimento facciale con l'IA

L’entrata in vigore dell’AI Act da parte dell’Unione Europea è uno dei primi tentativi al mondo di regolamentare l’intelligenza artificiale, frutto di un complesso lavoro di mediazione, trattativa e bilanciamento tra diversi attori.  “Siamo consapevoli – dichiara Martina Turola, di The Good Lobby – che queste tecnologie possono contribuire a far avanzare i diritti umani, ma anche metterli in pericolo. Uno dei principali rischi che gli strumenti di IA comportano è quello di produrre e facilitare risultati discriminatori, che violano i diritti civili, politici, economici, sociali e culturali di gruppi vulnerabili e marginalizzati. Sebbene Il regolamento europeo miri a garantire che i sistemi di intelligenza artificiale siano affidabili e rispettino i diritti fondamentali, permangono preoccupazioni sul fatto che possa raggiungere pienamente i suoi obiettivi. Nella sua veste finale, ad esempio, l’AI Act lascia margini troppo ampi per l’utilizzo di sistemi di riconoscimento biometrico, in particolare quello facciale, negli spazi pubblici, come evidenziato nel policy paper “I rischi dell’intelligenza artificiale: analisi e raccomandazioni per l’applicazione del regolamento europeo sull’intelligenza artificiale” elaborato da Hermes Center e The Good Lobby”. Ed è proprio sul riconoscimento facciale che si è concentrato Davide Del Monte, Hermes: “Da subito ci siamo posti il tema del rapporto tra riconoscimento facciale e tutela dei diritti. Fino a 15 anni fa questi sistemi erano pensabili solo in contesti distanti dai valori riconosciuti dall’UE, basati sul controllo dei propri cittadini per reprimere ogni forma di dissenso, come Hong Kong e Russia. Ma farsi sfuggire il controllo di tali tecnologie è facile anche in Europa. Una volta che una tecnologia di sorveglianza trova uno spazio per essere commercializzata, la storia testimonia che questa tecnologia si diffonderà”.

Sulla genericità dei divieti la società civile europea ha espresso forti dubbi, giudicando questi parametri eccessivamente vaghi e suscettibili ad interpretazioni diverse e sottolineando come il numero di eccezioni e concessioni per i loro utilizzi sia troppo esteso. Secondo Laura Ferrari, di The Good Lobby: “Il governo e il parlamento si sono già mossi nel senso di adeguare il tessuto normativo per andare incontro a quanto richiesto a livello europeo. In tutte le proposte di legge incardinate vediamo i temi su cui abbiamo lavorato anche noi, ad esempio l’autorità e la sandbox. Mancano invece all’appello due temi che riteniamo cruciali per la salvaguardia dei diritti: i redress mechanisms e le garanzie che ruotano intorno alla identificazione biometrica come strumento di indagine. A partire da quest’ultima, si consideri che l’utilizzo dell’identificazione biometrica è subordinata all’autorizzazione che dovrà essere fornita da un’autorità non definita dal regolamento, e che l’autorizzazione dovrà essere notificata ad un secondo ente che deve monitorarne l’utilizzo. Chiediamo che l’autorità preposta all’autorizzazione sia l’autorità giudiziaria, l’unica con un’esperienza consolidata nel bilanciamento di diritti fondamentali ed esigenze di indagine; chiediamo, inoltre, che l’autorità incaricata della relazione annuale sia indipendente e il monitoraggio pubblico e conoscibile. Per quanto riguarda i redress mechanisms, chiediamo che i diritti di esporre denuncia per le violazioni del regolamento e il diritto di chiedere spiegazioni chiare e significative sulle decisioni individuali siano assistiti da procedure che li rendano effettivi, fissando termini congrui e un sistema di segnalazioni e sanzioni nei confronti di coloro che si sottraggono dall’obbligo di fornire indicazioni.” Al dibattito è intervenuto anche l’onorevole Giulio Centemero di FdI secondo il quale un primo passo importante è educare gli stessi cittadini nel mondo del digitale: “Per ora abbiamo inserito il cyberbullismo nell’educazione civica, ma c’è ancora tanto da fare. Stiamo andando verso una democratizzazione del web e saremo noi stessi a decidere quali saranno le notizie libere per la circolazione. Ogni cittadino deve essere sempre consapevole di ciò che gli sta succedendo.” Hanno chiuso l’incontro le parole del senatore Lorenzo Basso del Pd, promotore del convegno: “Condivido la preoccupazione sul tema dall’autorità. Ancor di più quello relativo al riconoscimento facciale, meccanismo paradigmatico ad altri temi simili a questo. Quello che più mi spaventa non è l’errore né il pregiudizio dell’algoritmo - perché saremo in grado di costruire dei processi di controllo che porteranno alla diminuzione del medesimo errore - bensì l’uso improprio della tecnologia. E proprio su questo aspetto esprimo anche un po’ di delusione sull’AI Act, che non ha dato molto spazio ai principi, che doveva essere una norma più dal profilo costituzionale.”