di Claudio Cumani Che cosa può andare storto mentre stiamo incollati al computer o al telefonino? Perché ci prende l’ansia ogni volta che parliamo di Intelligenza Artificiale? Quali rischi corrono le nostre vite in balìa degli algoritmi? La questione è seria perché, si sa, questo mondo tecnologico (fatto di mail, Facebook, You Tube, Google e quant’altro) investe temi etici e sensibili come quello della privacy, dell’autonomia dell’individuo o del rispetto delle fragilità. Dunque, servono consapevolezza e soprattutto regole. Ecco che allora la Società editrice il Mulino ha deciso quest’anno di ospitare nella tradizionale Lettura (giunta all’edizione numero 36) per la prima volta nella sua storia uno scienziato: Nello Cristianini, esperto di ‘machine learning’. Goriziano, classe ‘68, professore di Intelligenza Artificiale all’Università di Bristol dal 2006 dopo una significativa docenza...

di Claudio Cumani

Che cosa può andare storto mentre stiamo incollati al computer o al telefonino? Perché ci prende l’ansia ogni volta che parliamo di Intelligenza Artificiale? Quali rischi corrono le nostre vite in balìa degli algoritmi? La questione è seria perché, si sa, questo mondo tecnologico (fatto di mail, Facebook, You Tube, Google e quant’altro) investe temi etici e sensibili come quello della privacy, dell’autonomia dell’individuo o del rispetto delle fragilità. Dunque, servono consapevolezza e soprattutto regole. Ecco che allora la Società editrice il Mulino ha deciso quest’anno di ospitare nella tradizionale Lettura (giunta all’edizione numero 36) per la prima volta nella sua storia uno scienziato: Nello Cristianini, esperto di ‘machine learning’.

Goriziano, classe ‘68, professore di Intelligenza Artificiale all’Università di Bristol dal 2006 dopo una significativa docenza californiana ("non parliamo di cervelli in fuga, per favore"), lui sta attualmente lavorando sulle conseguenze etiche e culturali provocate dall’adozione di tecnologie intelligenti su larga scala e sugli strumenti legislativi necessari per limitarne i rischi sociali.

Il titolo della Lettura 2021 (aperta ieri nella sede di Palazzo Re Enzo soltanto a 250 persone, tra cui Romano Prodi, ma in diretta streaming) era del resto molto esplicativo: Le macchine intelligenti. Capirle per poterci convivere. E Cristianini, maglione elegante e eloquio spigliato, ha semplificato con l’aiuto di una serie di slide la complessità di una questione che non può prescindere dalla salvaguardia di valori fondanti come quelli dell’uguaglianza e della dignità. Professore, si può dire che la tecnologia uscita dai laboratori e entrata nelle nostre case ci ha fatto scoprire esiti inattesi?

"Assolutamente sì ma, arrivati a questo punto, non possiamo certamente staccare la spina come qualcuno si ostina a sostenere. Siamo all’interno di un’infrastruttura digitale da cui dipendiamo e dobbiamo imparare a convivere con la tecnologia adottando norme ben precise. È evidente però che non si può regolare nulla se non si è ben compreso quello di cui si parla. Una comunità che discute di algoritmi discute di tutto".

Delegare decisioni alle macchine intelligenti apre un universo inconsueto?

"Certe scelte sono delicate e dobbiamo prestare attenzione alle macchine. Mi spiego: dobbiamo capire come funzionano, come influenzano la società e come ne sono influenzate. Noi insegniamo loro come comportarsi indicando una miriade di esempi ma se alcuni di quegli esempi non sono per così dire ‘nobili’, ecco che le macchine si impostano su dati sbagliati. Penso ad algoritmi con indicazioni sessiste nella valutazione dei curricula o atteggiamenti razzisti in decisioni giudiziarie o ancora a fake news. Insomma, attraverso certi dati, la macchina impara da noi e dalla società. Sono 40 anni che si lavora per arrivare a dove siamo ma esistono ancora punti deboli. Può un algoritmo negare un mutuo, l’accesso a una scuola o influenzare le notizie da leggere?"

Il Parlamento europeo sta discutendo una legge per arrivare a una regolamentazione. Quali saranno i tempi?

"È una legge scritta da gente che viene da discipline diverse e che entro il prossimo anno dovrebbe essere approvata. A quel punto le grandi compagnie dovranno adeguarsi. È una tappa importante perché, anche se ogni Paese ha allo studio svariate proposte, il mondo sta guardando all’Europa. Si tratta di un tema di cui nel 2022 parleremo molto".

Ma non c’è il rischio che quando la normativa entrerà in vigore la tecnologia sarà avanzata al punto che serviranno altre regole per arginarla?

"Si è sempre in ritardo e, ovviamente, prima si fa meglio è. Vorrei ribadire però che la soluzione deve essere di natura cultural-politica e non tecnica. Non c’è nessun complotto ma solo effetti collaterali, che nessun tecnico fino a qualche tempo fa si aspettava in questa modalità".

Perché lei resta comunque ottimista?

"L’Intelligenza Artificiale ci ha permesso di sopravvivere al meglio nei due anni di pandemia. Abbiamo avuto scarsi rischi di frode nelle transizioni economiche, mail quasi sempre ripulite dalla ‘spazzatura’, un accesso a You Tube ordinato e non certo paragonabile alla biblioteca di Borges. Certo, c’è un problema di dipendenza da certi strumenti perché le dipendenze comportamentali (come quelle legate al sesso e al gioco on line) sono più difficili da combattere di quelle chimiche. In futuro serve che, nel segno della trasparenza, lavorino non solo ingegneri del software ma filosofi, sociologi e uomini di cultura".