Intelligenza artificiale, il teologo Benanti: “Ci sono dei rischi. Giornalisti ancora cruciali”

Il presidente della Commissione algoritmi: “Può aumentare le diseguaglianze. Alcuni Paesi come l’India sfruttano manodopera a basso costo per la marcatura dei dati"

Padre Paolo Benanti, 50 anni, presidente della Commissione algoritmi
Padre Paolo Benanti, 50 anni, presidente della Commissione algoritmi

Teologo e filosofo francescano, membro del Comitato Onu sull’intelligenza artificiale, Paolo Benanti è stato nominato a inizio anno, al posto del dimissionario Giuliano Amato, presidente della Commissione algoritmi presso il dipartimento per l’informazione e l’editoria, incentrata sul rapporto tra IA e giornalismo: quindi fake news e come contrastarle. Ieri era a Firenze, come relatore di un seminario su etica del digitale e dell’intelligenza artificiale.

Qual è il ruolo della commissione?

Porre delle domande al problema dell’applicazione dell’IA all’informazione. Abbiamo ascoltato i soggetti coinvolti dall’impatto che l’intelligenza artificiale può avere sull’informazione e sull’editoria".

Che cosa è stato fatto?

"Abbiamo ascoltato l’Ordine dei giornalisti, gli editori e le grandi piattaforme digitali. Il giornalista è fondamentale per nutrire il tessuto democratico, ma questo è possibile se c’è un comparto industriale che offre lavoro. Oggi abbiamo piattaforme digitali che sfidano la sostenibilità del comparto".

Quale sarà il prossimo step?

"La commissione farà una relazione che poi verrà affidata a chi dovrà decidere. Ci stiamo lavorando da tre mesi e a metà febbraio la consegneremo".

Lei fa parte anche del comitato di coordinamento voluto dal sottosegretario all’Innovazione. C’è collaborazione tra i due gruppi di lavoro?

"C’è dialogo, ma quel comitato è più strategico. È incentrato su cosa può fare l’Italia non solo per acquistare intelligenza artificiale, anche per produrla. Con un altro dramma: che oggi un laureato in materia stem costa molto e il comparto industriale non riesce ad assorbirlo".

Tra gli effetti collaterali dell’IA, lo abbiamo visto, c’è l’utilizzo di manodopera a basso costo.

"Sappiamo che in altri Paesi, come l’India, sorgono gruppi o società che si occupano di marcatura dei dati per l’Occidente ricco, che è un processo che serve per creare intelligenza artificiale, sfruttando manodopera a basso costo. Questo ha più effetti".

Ovvero?

"Il primo legato alla giustizia o ingiustizia di questi salari. Il secondo sull’affidabilità di questi sistemi che vengono poi venduti, se si appoggiono su catene di approvvigionamento non garantite; la terza è l’effetto che tutto questo avrà a livello di disuguaglianza. Cioè se questi strumenti di intelligenza artificiale, andando poi a surrogare quei tipi di lavoro che prima potevano essere fatti da persone provenienti dai Paesi meno ricchi, non aumenteranno la disuguaglianza globale invece di accorciare le distanze. La domanda è: questo modello di sviluppo contribuisce o no a un livello di ingiustizia globale?".

Riconoscere un prodotto dell’IA è tra le preoccupazioni maggiori. È possibile avere un sistema di segnalazione?

"Il fatto che l’intelligenza artificiale venga prodotta ovunque e sia destinata ovunque, crea sfide senza precedenti tra la facilità con cui il digitale attraversa le frontiere e l’idea di un diritto che ha potere solo all’interno dei confini nazionali. Rendere identificabili i contenuti potrebbe essere una soluzione, ma il fatto che debba avvenire su prodotti che non sono tutti all’interno della stessa giurisdizione, ci fa pensare che sarà difficile mettere in pratica l’obbligatorietà. L’Onu sta lavorando per capire se si riescirà a creare un sistema di governance globale".

L’etica, in tutto ciò, che funzione ha?

"Fare domande. Vogliamo far sì che queste non siano cose che le persone subiscano, ma che possono essere addomesticate? L’etica si appella a tutti i differenti stakeholder per avere una risposta collettiva".