
A Pesaro nasce la prima scuola di formazione su Intelligenza artificiale e marketing
I lobbisti stanno compiendo un ultimo disperato tentativo per ritardare l’adozione delle norme relative all’IA per uso generico (GPAI), in vista della prevista pubblicazione da parte della Commissione europea del tanto atteso Codice di condotta volontario nei prossimi giorni.
Il codice, che si applicherà ai modelli di IA multiuso alla base di tecnologie come ChatGPT di OpenAI, è stato oggetto di forti tensioni, con quasi 1.000 lobbisti ed esperti che hanno partecipato al processo di redazione insieme a presidenti indipendenti.
Richieste di posticipo
Parallelamente, l’industria e la presidenza polacca del Consiglio hanno suggerito alla Commissione di “fermare il tempo” sull’attuazione della legge sull’IA, dato che molte linee guida e standard sono ancora in sospeso.
All’inizio di giugno, il commissario per la tecnologia Henna Virkkunen ha dichiarato al Consiglio che il rinvio di alcune parti della legge “non dovrebbe essere escluso” se gli strumenti di attuazione non sono pronti. Il codice di condotta ha lo scopo di aiutare gli sviluppatori di IA a rispettare le norme di legge relative ai GPAI, che dovrebbero entrare in vigore il 2 agosto.
Tuttavia, sebbene la Commissione non abbia formalmente chiuso la porta alla possibilità di posticipare alcune scadenze della legge sull’IA, ha indicato che le norme relative ai GPAI saranno effettivamente applicate ad agosto.
Ultimi appelli delle lobby tecnologiche
Ciò non ha impedito alla lobby delle grandi aziende tecnologiche CCIA Europe di lanciare un ultimo appello ai capi di governo dell’UE, riuniti la scorsa settimana al Consiglio europeo, affinché ritardino l’applicazione delle norme GPAI. Con il Codice ancora non pronto a poche settimane dall’entrata in vigore delle norme, l’UE rischia di “bloccare completamente l’innovazione”, ha affermato in una dichiarazione il capo dell’ufficio della CCIA Europe, Daniel Friedlaender.
Appelli a “resistere alle pressioni”
Ma anche il mondo accademico e la società civile hanno pubblicato la scorsa settimana una lettera aperta in cui difendono l’AI Act ed esortano la Commissione a “resistere alle pressioni” volte a far deragliare le norme. “I rischi sistemici derivanti dai modelli GPAI continuano ad aumentare”, avverte la lettera, citando pericolose “capacità legate a minacce informatiche, biologiche, radiologiche e nucleari”.
Anche i membri del Parlamento sono favorevoli all’attuazione della legge come previsto.
“È ora necessario un enorme sforzo per finalizzare il codice di condotta e gli standard necessari per la valutazione della conformità il più presto possibile. Non ci possono essere ulteriori ritardi”, ha dichiarato a Euractiv il deputato europeo Michael McNamara, copresidente del gruppo di lavoro del Parlamento sull’AI Act.
“Il mancato recepimento del codice di condotta e delle norme di governance per i modelli GPAI come previsto quest’anno comporterebbe una significativa perdita di credibilità per l’UE che andrebbe ben oltre la legge sull’IA”, ha avvertito.
Anche il deputato europeo Sergey Lagodinsky, che era tra i negoziatori della legge sull’IA, ha dichiarato a Euractiv.com che sono necessari “meccanismi robusti” per garantire che la legge sia “effettivamente attuata e applicata”.