Intelligenza artificiale, la legge Ue. Il fine non giustifica i mezzi. Limiti su privacy e sorveglianza

Bruxelles ha stabilito restrizioni crescenti per i sistemi che mettono in pericolo sicurezza, salute e ambiente

*

La svolta è di quelle epocali e appare destinata a incidere profondamente sulla vita degli Stati e delle società e sul rapporto tra uomo e tecnologia. L’Europa ha approvato il primo regolamento al mondo sull’Intelligenza Artificiale (AI, secondo la sigla inglese), dimostrandosi ancora una volta all’avanguardia sul piano regolatorio come già accaduto in passato in materia di privacy. Sull’Artificial Intelligence Act (AI Act) i negoziatori europei (il cosiddetto trilogo Parlamento-Consiglio-Commissione) hanno trovato la quadra l’altra sera, al termine di 36 ore di intenso negoziato. Il testo dev’essere ancora limato ma le linee guida sono ormai definite e realizzano un compromesso accettabile tra l’esigenza di promuovere l’economia digitale, tutelando le iniziative imprenditoriali delle start up tecnologiche, e il dovere di garantire il rispetto dei diritti fondamentali delle persone. L’AI Act era stato presentato dalla Commissione Ue nell’aprile 2021 e nel giugno scorso era stato approvato dal Parlamento di Strasburgo. Necessitava di una cornice unitaria e definitiva, che è stata finalmente realizzata.

Le questioni più controverse riguardavano i modelli fondativi, cioè le forme di AI generali in grado di creare testi o immagini e allenate attraverso un’enorme mole di dati, i sistemi di riconoscimento biometrico e la polizia predittiva. Secondo l’AI Act, i sistemi devono essere classificati in diversi gruppi di rischio: più alti sono i rischi potenziali di un sistema, maggiori saranno i requisiti per la sua implementazione. Per rischio si intende in questo caso la capacità che ha una tecnologia di causare danni significativi alla salute, all’ordine politico, all’ambiente o alla sicurezza.

Il principio in base al quale “il fine giustifica i mezzi” non si applicherà a quelle forme di AI particolarmente invasive e in grado di produrre lesioni rilevanti della nostra privacy, tanto più se in ambiti particolarmente delicati come quello della salute, della razza, della religione, dell’affiliazione politica. In altre parole, dovranno ricorrere circostanze eccezionali e di indubbio interesse pubblico per autorizzare l’utilizzo dell’AI per visionare immagini o filmati di sorveglianza in un ospedale o in una scuola o in un luogo di culto. Il riconoscimento delle emozioni sul posto di lavoro e nelle scuole, il social scoring e le tecniche manipolative saranno sempre vietati.

L’identificazione biometrica in tempo reale sarà invece consentita esclusivamente per ricerche mirate di vittime (rapimento, traffico, sfruttamento sessuale), prevenzione di una minaccia terroristica, localizzazione o identificazione di una persona sospettata di aver commesso reati di terrorismo, traffico di esseri umani, omicidio, stupro. Prevista anche l’attivazione di meccanismi per proteggere il diritto d’autore e la trasparenza dei sistemi di AI.

Robusto l’apparato sanzionatorio, con multe fino a 35 milioni di euro o il 7% del fatturato globale. L’AI Act sarà pienamente applicabile entro due anni, ma i divieti saranno operativi già fra sei mesi e le aziende, attraverso l’AI Pact (sistema per l’attuazione precoce delle nuove misure), potranno adeguarsi al nuovo quadro regolatorio spontaneamente e in anticipo, al fine di sviluppare fin da subito le nuove applicazioni dell’Intelligenza Artificiale in un contesto di equilibrio dinamico tra obiettivi di business e rispetto dei diritti fondamentali.

*Docente di Diritto dell’informazione all’Università Cattolica di Milano

è arrivato su WhatsApp

Per ricevere le notizie selezionate dalla redazione in modo semplice e sicuro