Giovedì 25 Aprile 2024

L’intelligenza artificiale fa paura. Geoffrey Hinton si dimette da Google: "In futuro supererà l’uomo"

Hinton, uno dei padri della ricerca, lascia Google per lanciare l’allarme: "È più forte di noi e può finire in mani sbagliate"

Fermate il mondo, voglio scendere; o almeno fermate la folle corsa dell’intelligenza artificiale. Geoffrey Hinton è sceso davvero (non dal mondo, certo, ma da Google sì) e la notizia non potrebbe essere più dirompente, visto che stiamo parlando di uno dei “padri” – o dei “nonni”, visto che ha 75 anni – dell’intelligenza artificiale.

Sulle motivazioni delle dimissioni dal gigante di Mountain View non ci sono equivoci: lo sviluppo dell’intelligenza artificiale, ha detto Hinton, ha avuto un’accelerazione imprevista e ora c’è da temerla, perché può travolgere le nostre indifese società; perché può finire in mani “cattive” con effetti imprevedibili; perché può diventare "più intelligente di noi" e sfuggire a ogni controllo.

Appunto, i controlli. Oggi semplicemente non esistono. L’intelligenza artificiale si è sviluppata in assenza di normative pubbliche, seguendo la legge del mercato: la ricerca ha preso la via indicata dai grandi investitori, quindi ha macinato dati, conoscenze, risorse finanziarie per ottenere efficienza operativa nei campi di applicazione – pressoché dappertutto, dalle assicurazioni alla salute, dalla giustizia all’amministrazione pubblica, ovunque si possa gestire, prevedere, programmare, decidere a partire da un’enorme massa di dati – e avendo sempre sullo sfondo la ricerca del profitto.

Oggi gli Stati arrancano, pressoché disarmati, per quanto capiscano di dover intervenire per difendere la privacy dei cittadini e prevenire i rischi di abusi, ma anche per evitare di trovarsi a breve in una società nella quale sono gli algoritmi con le loro “regole” – solo in apparenza scientifiche e obiettive – a decidere su questioni sociali e personali, come le assunzioni di personale, le richieste di prestiti, ma anche le cure sanitarie e certi casi giudiziari, tutti ambiti nei quali l’intelligenza artificiale si sta già “allenando”.

Per non parlare delle applicazioni militari, dei sistemi di controllo dei cittadini, della capacità di “prevedere” i comportamenti futuri (per esempio le “devianze” da adulti dei bambini di oggi) e del timore che lo spazio pubblico sia così popolato di immagini, notizie, storie generate dall’intelligenza artificiale da rendere indistinguibile il vero dal falso.

La paura, insomma, non è di trovarsi di fronte un robot capace di sentimenti e ambizioni proprie, ma di finire preda di sistemi intelligenti che prendono decisioni imperscrutabili. Nel 2016 in una citatissima intervista con “Wired“ il presidente Obama, di fronte ai dubbi sugli sviluppi dell’intelligenza artificiale e la difficoltà di controllarli, disse ottimisticamente: "Devi solo avere qualcuno vicino alla presa di corrente e appena vedi che succede qualcosa di sbagliato devi togliere la spina dal muro". Il dubbio, oggi, è sull’esistenza stessa di una spina da staccare e – comunque – sulla capacità di comprendere quando sia il momento di staccarla. Secondo Hinton il momento sarebbe già arrivato, ma l’intelligenza artificiale è ormai fra noi, nelle nostre economie, nelle nostre istituzioni, nelle nostre vite e non si torna indietro. Abbiamo quindi due grandi problemi da affrontare, e dobbiamo affrontarli insieme. Il primo è una grave crisi di fiducia rispetto all’intelligenza artificiale. Il secondo è la debolezza delle istituzioni pubbliche che dovrebbero regolarmentarne l’uso.

Avremmo bisogno, come dice il teologo “hi tech” Paolo Benanti, di una “algoretica” – un’etica degli algoritmi – all’altezza di una sfida così difficile, ma servirebbe ancora di più uno strumento operativo – che sia una legge, un’autorità, una convenzione sottoscritta dagli operatori – per “imporre” regole oggi necessarie come la trasparenza, la responsabilità e il principio della “ispezionabilità” degli algoritmi e degli “agenti intelligenti” (oggi peggio che opachi) perorato da Nello Cristianini, professore in Inghilterra e autore di recente di un libro, “La scorciatoia” (Il Mulino), dedicato a "come le macchine sono diventate intelligenti senza pensare in modo umano".

La sfida è sia culturale che politica. Va rivendicato il diritto di sapere che cosa c’è dietro le macchine intelligenti e i poteri pubblici devono subito riprendere lo scettro del comando abbandonato troppo presto, perché non si scende dal mondo dell’intelligenza artificiale e non c’è nemmeno un interruttore da staccare.

è arrivato su WhatsApp

Per ricevere le notizie selezionate dalla redazione in modo semplice e sicuro