Giovedì 25 Aprile 2024

I robot spaventano gli scienziati. "Decidiamo come dominarli"

Francesca Rossi e l’allarme lanciato da 400 studiosi e ricercatori

Un robot umanoide

Un robot umanoide

Roma, 18 gennaio 2015 - L’INTELLIGENZA artificiale progredisce, i robot cominciano a guadagnare spazio nella vita quotidiana e fatalmente riappare l’immortale paura che le macchine possano sopraffare l’uomo. È una paura che colpisce la persona comune ma che non risparmia fior di scienziati e geni della tecnologia. Ha detto nel novembre scorso Stephen Hawking, forse il fisico più conosciuto al mondo: «Lo sviluppo di una piena intelligenza artificiale» potrebbe «innescare la fine del genere umano». Ed Elon Musk, fondatore fra l’altro di Pay Pal: «I progressi sono rapidissimi, l’intelligenza artificiale potrebbe diventare pericolosa nell’arco di cinque anni». Il dubbio allora è legittimo: sta forse accadendo qualcosa, nel mondo della ricerca, che preoccupa gli stessi scienziati?

Sì e no, a sentire Francesca Rossi, docente di informatica a Padova, ora ad Harvard per un anno di ricerche, presidente della Conferenza internazionale sull’intelligenza artificiale. Sì, perché i progressi sono davvero formidabili e vanno messi sotto controllo; no, perché non si intravedono pericoli incombenti del tipo immaginato dalla fantascienza con macchine come Hal 9000 in “2001: Odissea nello spazio” o Skynet in “Terminator”. Fatto sta che 400 scienziati e protagonisti della ricerca (inclusi Hawking, Musk e la stessa Rossi) hanno sentito il bisogno di firmare una lettera, pubblicata sul sito del bostoniano Future of Life Institute, per ribadire un principio che pare ovvio ma che non è ancora garantito: «I nostri sistemi di intelligenza artificiale dovranno fare quello che vogliamo che facciano, non il contrario. Per questo è importante e opportuna un’analisi su come renderli un elemento positivo per l’umanità». La richiesta è che siano istituiti ai più alti livelli Comitati etici e gruppi di studio.

Francesca Rossi, questi interventi nascondono qualcosa che ancora non sappiamo?

«No, non c’è niente del genere. La lettera dei 400 è scaturita da un convegno che si è tenuto due settimane fa a Portorico. Erano presenti scienziati, giuristi, economisti. Si è sentito il bisogno di intervenire perché i progressi della ricerca hanno suscitato reazioni preoccupate, come quelle di Hawking e Musk. La lettera vuole favorire un approccio costruttivo: abbiamo macchine sempre più intelligenti che portano grandi benefici, ma è necessario sapere con certezza che queste macchine non avranno mai comportamenti non desiderati».

Nella lettera menzionate i rischi delle armi da guerra “autonome”. Qualcuno le sta usando?

«In questo momento, anche negli Stati Uniti, non è permesso usare armi che prendano da sole decisioni critiche, cioè nel corso degli eventi, in situazioni impreviste. Ma anche escludendo le armi, pensiamo alle auto senza guidatori. Si stima che con la loro introduzione negli Stati Uniti le vittime della strada, che oggi sono 40mila all’anno, potrebbero dimezzarsi. Ma queste auto si troveranno, in certe situazioni, a compiere scelte critiche improvvise, ad esempio per limitare i danni di fronte a un pericolo. Ma che decisioni dovranno prendere? Con quali priorità? La tecnologia è pronta, ma prima di metterle in strada bisogna capire quali parametri di comportamento vogliamo privilegiare».

È possibile inserire un codice morale nelle macchine?

«Al momento si sta lavorando sui codici di comportamento per i ricercatori, guardando a quanto si è fatto nella biologia, che ha escluso la possibilità di fare ricerca su certi fronti particolarmente delicati, ad esempio sul Dna che si ricombina. Non è chiaro però come agire in modo ragionevole nel campo dell’intelligenza artificiale. Ci sono tecnologie benefiche che possono essere usate in modo indesiderato. Pensiamo alla visione automatica che permette di riconoscere le facce e che è utilizzata negli apparecchi fotografici; può essere usata anche per fini diversi, nocivi e lesivi della privacy. Si sta pensando anche a una regolamentazione specifica per la robotica».

L’evocazione di Hal 9000 o Skynet è fondata?

«Sono suggestioni. Non siamo ancora al punto di avere macchine che come Hal 9000 riescono a ragionare e colloquiare con l’uomo, capendo tutto ciò che una persona può dire. Pensiamo a Google Translate: è in grado di tradurre abbastanza bene qualsiasi frase in un grande numero di lingue. Ma non possiamo chiedere a Google Translate di dirci che cosa dice quella frase, in che modo è lagata a tutto il resto».

Che cosa manca a queste macchine?

«Prima di arrivare a una macchina come Hal 9000 mancano aspetti fondamentali come il ragionamento di senso comune, cioè quella cosa che permette a noi umani di comunicare senza dover spiegare ogni volta ogni singola cosa, poiché abbiamo un patrimonio implicito di conoscenze. Non si è ancora capito in che modo le macchine possano accedere a qualcosa del genere».

Qual è la cosa che più la colpisce della ricerca attuale?

«Quello che vedo nel futuro non è un particolare risultato di ricerca ma la incredibile commistione di macchine e umani nella società. Non saremo più una società di menti umane, ma di macchine e menti insieme. Io sono ottimista. Queste macchine amplificheranno le nostre capacità, ci aiuteranno ad avere vite migliori, ad evitare lavori ripetitivi e così via».

Ma è un’altra minaccia per l’occupazione.

«L’impatto dell’intelligenza artificiale sui sistemi economici è uno degli aspetti più problematici ma anche uno dei più affascinanti. I governi devono interrogarsi su come organizzare la società con meno lavoro per le persone. La rivoluzione industriale sostituì il lavoro muscolare con le macchine. Questa rivoluzione sostituisce anche una serie di capacità cognitive. Ma ci dev’essere un altro modo di concepire il lavoro e l’economia».