L’INTELLIGENZA ARTIFICIALE promette sviluppi che, ad oggi, riusciamo solo ad abbozzare. Per un paese che subisce l’inesorabile calo demografico, con un’economia strutturata su piccole e medie imprese, l’IA promette, in principio, significativi aumenti di produttività in grado di generare un salto discreto nei nostri standard di benessere. Nel rapporto sull’IA di recente presentato da Microsoft al Policy Observatory della Luiss School of Government l’aumento di produttività nei prossimi decenni varrebbe, solo per l’Italia, sino a 312 miliardi di euro l’anno, pari al 18 per cento del suo Pil. Certo, l’Italia è ultima fra le economie G7 per investimenti in ricerca e sviluppo e non solo per difetto di investimenti pubblici. Questo non vuol dire, tuttavia, che è rimasta inerte negli anni recenti. Il programma strategico per l’intelligenza artificiale prevede misure di sostegno; così fa il PNRR e, più recentemente, alcune iniziative di finanziamento messe in campo dal MIMIT. Per un Paese con un settore privato che anch’esso investe poco in ricerca e sviluppo, complice la morfologia del suo tessuto industriale con imprese di dimensioni non grandi, l’intelligenza artificiale promette potenziali vantaggi che non necessariamente richiedono – per la singola impresa che ne intenda beneficiare – massicci investimenti. Oggi, però, la grande sfida dell’intelligenza artificiale non è tanto generarla – obiettivo, questo, in parte già raggiunto – né acquisirla o integrarla nei processi produttivi o di erogazione di servizi. La grande sfida è, piuttosto, governarla. L’IA, infatti, non è un semplice strumento come un computer che obbedisce ai nostri diretti comandi.
Per la prima volta nella storia, è un’invenzione dell’uomo che pretende di sostituirsi all’uomo stesso anche nel ragionamento, ambito nel quale aveva sinora detenuto l’esclusivo monopolio. Nella consapevolezza di questa sfida, occorre promuovere un approccio di governance che stabilisca requisiti minimi per un’IA sicura, accurata ed affidabile; preveda meccanismi di monitoraggio nell’arco del suo funzionamento; permetta di prevenire ragionevolmente il rischio che si verifichi un danno dalla sua applicazione; sia condiviso a livello internazionale; e, infine, si muova in collaborazione, non in antagonismo, con il settore privato. Quest’ultimo principio è fondamentale per l’efficacia complessiva dell’impianto regolatorio, poiché è il settore privato che detiene le informazioni rilevanti sull’IA: le sue potenzialità, ma anche i rischi che da tali applicazioni promanano. Peraltro, data la velocità alla quale l’innovazione sta procedendo, sarebbe praticamente impossibile per le autorità regolatorie procedere in isolamento dal settore privato. Come sarebbe parimenti inefficace regolamentare singole fattispecie poiché costringerebbero il legislatore o la authority di vigilanza a intervenire con eccessiva frequenza sui rispettivi impianti normativi. In altre parole, occorre muoversi nell’ambito di un insieme di principi sufficientemente generali, da un lato, e, dall’altro, in grado di intercettare i fenomeni più rilevanti e, soprattutto, rischiosi.
Ed é, questo, l’approccio seguito dal G7 a trazione italiana che culminerà nelle prossime settimane nel summit di Borgo Egnazia. Del resto, nella recente ministeriale di Verona e di Trento, le consultazioni sono avvenute non solo fra governi ma anche con il B7, appunto, una rappresentanza qualificata del settore privato per condividere i progressi sinora compiuti e soprattutto l’ambiziosa agenda dei prossimi mesi. Muovendosi in continuità con la presidenza giapponese che l’ha preceduta, la presidenza italiana è partita dal cosiddetto percorso di Hiroshima nell’ambito del quale i paesi G7 hanno elaborato un codice di condotta con principi internazionali che guidino l’industria, la ricerca e le istituzioni nello sviluppo di sistema di IA sicuri ed affidabili. L’obiettivo è di sviluppare questo percorso con la definizione di meccanismi di monitoraggio condivisi nelle più importanti giurisdizioni del mondo. Del resto, il recente provvedimento adottato dal Parlamento europeo va proprio in questa direzione così come quelli adottati dall’amministrazione americana. L’approccio sinora condiviso tra le più importanti giurisdizioni occidentali facilita la costruzione, in Occidente, di un mercato armonizzato per i sistemi di IA.
Rappresenta, inoltre, la costruzione embrionale di una cooperazione rafforzata all’interno del blocco occidentale necessaria per mitigare le conseguenze di un’economia mondiale sempre più frammentata. Non è il mercato euro-atlantico proposto negli anni passati, ma rappresenta – nell’attuale quadro geopolitico – una sperimentazione la cui rilevanza va ben al di là del comparto IA, già di per sé rilevante. Durante l’amministrazione Obama venne proposta senza troppa convinzione la possibilità di un’area di cooperazione rafforzata fra la UE e gli Stati Uniti, ma gruppi di interesse da entrambe le sponde dell’Atlantico si adoperarono con straordinaria efficacia nel marginalizzarne l’agenda. L’amministrazione che seguì fece il resto, ma quella attuale non la reintrodusse, segno di un’opposizione chiaramente bipartisan. L’auspicio è che la convergenza generata nella regolamentazione dell’IA – sui contenuti, ma anche sul metodo di lavoro per generarli – possa creare le basi di una cooperazione più estesa che possa essere replicata in altri ambiti facilitando il progresso verso una grande area di cooperazione economica all’interno del blocco occidentale. Proprio questa è la più grande sfida del G7 a trazione italiana: consolidare un sistema di principi su un paradigma che definirà in modo sempre più netto l’evoluzione della nostra società e della nostra economia gettando le basi per una rinnovata cooperazione fra le due sponde dell’Atlantico.
* Direttore del Policy Observatory
Luiss School of Government