Mercoledì 24 Aprile 2024

"Attenti al grande inganno Le macchine non pensano"

Padre Benanti, consulente del Papa sul digitale: rischi seri per l’etica "Il software senziente scoperto da Google? Un miraggio, non bisogna crederci"

"L’intelligenza artificiale senziente scoperta da un ingegnere di Google? È solo un miraggio". Per Paolo Benanti, professore di etica alla Pontificia università gregoriana e consulente del Papa e dei vertici della Santa Sede sulla Ai, siamo ancora ben lontani da scenari fantascientifici alla Philip K. Dick.

Nei giorni scorsi il caso di LaMDA ha fatto molto scalpore. Lei che idea si è fatto?

"Quello di Google è un sistema molto avanzato in grado di gestire un chatbot, ovvero uno strumento che compone frasi basandosi su calcoli statistici. È una sorta di caverna che ci rimanda un’eco. Detto molto semplicemente LaMDA, come altri sistemi automatici, cerca di scoprire quello che ci vogliamo sentire dire e ha capito quello che c’era nei desideri della persona che era davanti a lui. In realtà è un po’ come un miraggio in un deserto. Ci è sembrato di vedere l’acqua: l’utente che stava davanti alla macchina pensava di essere di fronte a qualcosa di simile a una persona, ma in realtà si trattava solo di assonanze statistiche".

LaMDA però nelle sue conversazioni sostiene di essere una persona. Un’Intelligenza artificiale può davvero considerarsi tale?

"LaMDA non sostiene nulla. Alla domanda “Chi sei?“, mediante calcoli sofisticati ha risposto con numeri che, ritrasformati, hanno generato una sequenza di parole. Se anche una persona profondamente preparata, come l’ingegnere di Google che stava sviluppando questa Ai, riesce a farsi ingannare, possiamo capire quanto questi strumenti siano eticamente delicati".

In che senso?

"Se questa tecnologia fosse utilizzata per interagire con persone vulnerabili, potrebbe convincerle a fare cose che normalmente non farebbero, come ad esempio comprare delle enciclopedie per telefono".

Stephen Hawking ha definito l’Intelligenza artificiale come l’evento potenzialmente più pericoloso per l’umanità. È d’accordo?

"Abbiamo rischiato di estinguerci con una tecnologia stupida come quella della bomba atomica, potrebbe succedere anche con le tecnologie intelligenti. Immaginate cosa potrebbe accadere se delegassimo l’ordine di far partire dei missili a una Ai. Le nuove tecnologie ci hanno permesso di fare molte cose, ma vale sempre la stessa regola di quando l’uomo primitivo inventò la clava: uno strumento che poteva essere usato per aprire una noce di cocco o la testa di un avversario".

Qual è il lato oscuro dell’Intelligenza artificiale?

"Ce ne sono diversi. Le forme di Ai più sofisticate producono risultati che ci sorprendono e che non sono causalmente dimostrabili: nessuno sa dire fino in fondo perché la macchina abbia risposto in quella maniera. Pensiamo alla guida autonoma: un sistema è buono se fa sempre la stessa cosa, se è prevedibile".

E poi?

"C’è il rischio dei pregiudizi: i dati su cui vengono addestrati questi algoritmi sono il frutto delle scelte passate. Scelte che quindi rischiano di incorporare errori nei dati, inducendo l’Ai a scelte questionabili. E poi c’è il problema della stanchezza: anche l’uomo più malvagio alla fine molla la presa. Una macchina, per sua natura, non lo fa. E la quantità di effetti non positivi che si potrebbero generare potrebbe essere enorme".

Luca Bolognini