di Matteo
Massi
Sei mesi di moratoria per l’intelligenza artificiale. Stupisce (fino a un certo punto) che a richiederla, dopo l’uscita di Gpt-4, siano stati molti protagonisti delle diverse stagioni della Silicon Valley: da Steve Wozniak, che con Steve Jobs s’inventò in garage il primo computer dell’Apple, a Elon Musk.
Nello Cristianini è professore d’Intelligenza Artificiale all’università di Bath, nel Regno Unito, e ha appena scritto un libro “La scorciatoia“ (il Mulino editore). Sottotitolo: come le macchine sono diventate intelligenti senza pensare in modo umano.
Professore, l’intelligenza artificiale ci sta sfuggendo di mano?
"Abbiamo creato delle macchine intelligenti, addestrandole con algoritmi statistici e quantità di dati che sono enormi e in continua crescita. C’è in corso una competizione per creare delle macchine sempre più grandi e sta accelerando".
Proviamo a spiegare che cosa c’è dietro a Gpt-4, l’ultima frontiera dell’intelligenza artificiale.
"Gpt-4 è uscito poche settimane fa e per realizzarlo è stato addestrato un algoritmo che si chiama “Transformer”, che impara una quantità impressionante di dati da tutto quello che si trova sul Web. Open AI, il creatore di questo software, lo ha messo gratis su Internet, consentendoci di giocare con esso, e di sperimentare l’illusione che questo abbia una forma di intelligenza quasi umana… ".
Ma resta solo una macchina.
"Il suo comportamento è guidato da relazioni statistiche. Il dialogo? È convincente per la ragione che ci lavoriamo su da anni. Pensi che Alexa e Siri sono state addestrate per dialogare con gli umani, utilizzando anche i copioni di film e opere teatrali. Ma al loro interno, queste macchine parlano solo la lingua della probabilità".
Ma ora sembra avere paura anche chi ha creato o vorrebbe sviluppare questo modello, perché?
"La moratoria di sei mesi, chiesta da un gruppo di scienziati e imprenditori, può essere una buona notizia, anche se credo che non si fermerà nessuno. Qualcosa del genere è accaduto nel caso della clonazione umana, gli scienziati si sono fermati, in attesa di capire quali fossero i confini etici da rispettare. Ora siamo più o meno in una situazione analoga".
Quali sono i problemi da affrontare?
"C’è poca gente al mondo che può studiare che cosa può andare storto. Io che faccio il professore d’Intelligenza artificiale, nel mio ateneo non posso riprodurre un modello come Gpt-4. Ma questo sarebbe importante, perché quel modello va allineato ai nostri bisogni. Adesso c’è una corsa forsennata a creare il modello più grande e a metterlo in azione il prima possibile. Per esempio, Microsoft ha investito molto in Open Ai e ha messo la loro tecnologia dentro Bing (il motore di ricerca, ndr) dove può interagire con gli utenti e anche raccogliere ulteriori dati".
Serve una regolamentazione.
"L’Europa ci sta provando, ma la legge europea che può essere approvata a breve rischia già di essere superata. Un problema importante nel fare le leggi è che chi le fa deve prima capire la natura dell’intelligenza che abbiamo creato, che è un’intelligenza diversa dalla nostra, il frutto di scorciatoie statistiche. In certi casi le nostre creature possono essere più potenti di noi, ma in altri casi non capiscono veramente quello che fanno. Dovrà essere l’uomo a mettersi alla guida di queste macchine".
L’intelligenza artificiale ha un bagaglio di conoscenze vasto, ma non ha un vissuto che si tramuta in esperienza che è poi quello che distingue le scienze sociali (e umane) da quelle naturali, seconda la definizione di Wilhelm Dilthey.
"Le scienze umane e l’umanesimo più in generale saranno fondamentali per capire come potremo governare queste macchine".
Quindi un nuovo (o un post) umanesimo può essere la soluzione?
"Noi in Italia non abbiamo avuto una Silicon Valley, ma abbiamo avuto il Rinascimento che rimane una lezione immortale, un ponte per capire le trasformazioni e per governarle. L’intelligenza umana deve guidare l’evoluzione tecnica".