L’intelligenza artificiale spaventa anche gli scienziati: "Rischi per la specie umana"

La lettera di 3mila esperti: fermare la sperimentazione, servono regole e controlli. Il boom di ChatGPT ha fatto scattare l’allarme. "Milioni di posti di lavoro in pericolo". L’Ue con l’AI Act disegna dei confini: limiti al riconoscimento facciale e agli algoritmi

Roma, 29 dicembre 2023 – Si chiama intelligenza artificiale (AI nell’acronimo inglese) e promette meraviglie, oltre che una rivoluzione nel lavoro, nella produzione, nell’informazione, nella vita quotidiana, ma intanto è una grande, complicata, spesso ambigua lotta di potere.

Scena prima, marzo 2023. Tremila ricercatori, docenti e imprenditori, con l’apparente beneplacito di Big Tech, con una lettera aperta chiedono una sospensione di sei mesi nell’addestramento dei sistemi di intelligenza artificiale; occorre fermarsi e fissare delle regole, dicono, perché ci sono rischi esistenziali per la specie umana. Scrivono cose così: "Dovremmo sviluppare menti non umane che alla fine potrebbero essere più numerose, più intelligenti, rendendoci obsoleti e sostituendoci? Dovremmo rischiare di perdere il controllo della nostra civiltà?". Ce n’è abbastanza, a pochi mesi (ottobre 2022) dall’arrivo sul mercato di ChatGPT e degli altri sistemi ’generativi’, capaci di dialogare con le persone umane, per azionare l’allarme nel mondo accademico, politico e imprenditoriale, sia pure per motivi diversi.

Scena seconda, maggio 2023. Geoffrey Hinton, uno dei padri delle reti neurali digitali, si dimette da Google per poter criticare più liberamente gli sviluppi vorticosi dell’intelligenza artificiale: "In questo momento – dice – non sono sistemi più intelligenti di noi, per quanto ne so. Ma penso che presto potrebbero esserlo". E aggiunge una nota sui primi effetti pratici della rivoluzione AI: lavori portati via e disinformazione incontrollabile.

Scena terza, novembre 2023. OpenAI, la casa madre di ChatGpt, tiene banco con coup de théâtre a catena. Prima il cda della società non profit che controlla la parte operativa dà il benservito all’amministratore delegato Sam Altman, ma non dura che poche ore, perché poi interviene Microsoft, che finanzia OpenAI con miliardi di dollari, e annuncia d’essere pronta ad assumere Altman e ad affidargli un nuovo ramo d’impresa tutto per lui. Segue la marcia indietro del cda, il ritorno di Altman in azienda e l’ingresso di Microsoft nella stanza dei bottoni. Qualcuno ha commentato che il capitalismo, cioè il binomio Altman-Microsoft, ha vinto sull’idealismo, cioè la frenata tentata dal cda non profit, ispirato dal direttore scientifico Ilya Sutskever.

Tre scene per due concetti. Il primo è che l’umanità è in pericolo – o meglio sarebbe, visto che il mondo scientifico indipendente sembra pensarla diversamente. Il secondo è che le regole devono essere contrattate fra grandi aziende e poteri pubblici, con Big Tech che sembra in grado di dettare tempi e modi ai secondi, quindi grande attenzione agli scenari apocalittici e sostanziale libertà d’azione su tutto il resto.

C’è forse una scena quarta: a dicembre l’Unione europea ha dato il via libera a una legge (AI Act) che fisserà alcune regole a tutela dei diritti e delle libertà. Non vi si parla di rischi esistenziali ma di cose ben più concrete: i controlli pervasivi con riconoscimento facciale, il social scoring (cioè i punteggi di cittadinanza in base alle condotte individuali), la ’polizia predittiva’, l’uso di sistemi automatici – con tutti i loro pregiudizi, ripresi pari pari da quelli diffusi nella società – nella selezione di lavoro, nelle graduatorie pubbliche, nelle concessioni di mutui eccetera.

Clicca qui se vuoi iscriverti al canale WhatsApp di Qn

L’AI Act è il primo tentativo al mondo di regolamentazione a tutto campo: è forse incompleto, arriverà solo nel 2025 e sarà limitato all’Europa, ma è qualcosa, e soprattutto fa capire qual è la posta in gioco. Una posta tutta politica. Da un lato Big Tech, con i suoi controversi allarmi e il suo dominio su tutta la filiera: ricerca, tecnologia, applicazioni, mercato. Dall’altro i governi, i parlamenti, la società civile organizzata, cioè i soggetti che dovrebbero guidare e orientare il presente e il futuro dell’intelligenza artificiale, ma che stentano – a dir poco – a imporre il proprio ruolo.