
All’IA serve una coscienza: "Dargliela è il nostro compito"
"L’Intelligenza Artificiale - spiega Claudio Novelli, International Fellow presso il Digital Ethics Center (DEC) dell’Università di Yale e assegnista di Ricerca presso il Dipartimento di Scienze Giuridiche dell’Università di Bologna - fa emergere una serie di questioni etiche legate, ad esempio, all’autonomia delle operazioni, alla responsabilità e all’imparzialità, ovvero come evitare che perpetui pregiudizi o discriminazioni esistenti e che sono contenuti nei dati di addestramento".
I vantaggi, invece?
"È vero che l’IA può contribuire a generare effetti indesiderati ma in molti casi, i rischi che aiuta a prevenire possono essere ben maggiori di quelli che introduce.
Può causare discriminazione e disinformazione, ma può essere anche lo strumento per affrontarle e risolverle, individuando le situazioni in cui decisioni prese senza il supporto della tecnologia possono essere influenzate da pregiudizi (espliciti o impliciti) e contribuendo a renderle più eque, come decisioni dei tribunali o selezioni professionali. In altri contesti, può essere impiegata per contrastare le discriminazioni sviluppando strategie per una ripartizione più giusta delle risorse, in particolare nelle comunità che necessitano maggiormente di assistenza, e più in generale, ottimizzando alcuni processi e contribuendo allo sviluppo economico, può rendere certi servizi più efficienti e profittevoli, facilitando la loro crescita in aree dove prima non erano disponibili o funzionavano in modo inadeguato".
In Italia e in Europa esiste una normativa?
"L’Unione Europea sta compiendo passi significativi, in particolare con il prossimo voto sull’Artificial Intelligence Act (AIA), che punta a fornire un quadro giuridico completo per la progettazione, lo sviluppo e la distribuzione dei sistemi di IA. Ogni produttore o distributore di tecnologie IA nell’UE dovrà conformarsi agli standard imposti dall’AIA e dai suoi atti attuativi. L’approccio adottato mira a essere equilibrato, differenziando gli obblighi in base al livello di rischio posto dal sistema di IA: più è elevato, più i requisiti legali saranno rigorosi per minimizzare i potenziali danni. Sarà obbligatoria, ad esempio, la preparazione di una valutazione di impatto dei sistemi sui diritti fondamentali. In parallelo, l’UE prevede l’introduzione di altre normative nei prossimi mesi, come quelle relative alla responsabilità giuridica per danni causati da sistemi IA. L’Italia per il momento segue quello che accade a livello europeo e dovrà farsi trovare pronta quando si tratterà di recepire e implementare la normativa sovranazionale".
a cura di Marina Santin