Venerdì 21 Giugno 2024

OpenAI, la corsa all’intelligenza artificiale spaventa anche gli ex dipendenti. “Servono più sicurezza e regole”

In nove hanno firmato una lettera aperta nella quale evidenziano alcune problematiche all’interno della società proprietaria di ChatGpt, accusata di voler silenziare le voci critiche

Il logo di OpenAI, la società che ha creato ChatGpt (Ansa)

Il logo di OpenAI, la società che ha creato ChatGpt (Ansa)

Roma, 4 giugno 2024 – Nuove critiche su OpenAI, la società proprietaria di ChatGpt. Secondo quanto scrive il New York Times, un gruppo di nove fra attuali ed ex dipendenti ha pubblicato una lettera aperta nella quale denuncia una cultura “di incoscienza e segretezza” dentro il gruppo i cui vertici non si sarebbero mai preoccupati della sicurezza e di impedire all’intelligenza artificiale di diventare pericolosa. I nove firmatari, inoltre, accusano OpenAI di aver utilizzato accordi di riservatezza per impedire ai dipendenti, anche una volta diventati ex, di parlare del lavoro svolto e quindi poter muovere critiche. Infine il gruppo ritiene che la società, nata come laboratorio di ricerca senza scopo di lucro, stia dando priorità ai profitti e alla crescita economica nel tentativo di costruire un'intelligenza generale artificiale, o A.G.I (Artificial General Intelligence), cioè un computer o un programma un grado di fare tutto quello che può fare un essere umano. 

I firmatari

Tra i firmatari della lettera aperta ci sono William Saunders, un ingegnere e ricercatore che ha lasciato OpenAI a febbraio, Carroll Wainwright, Jacob Hilton e Daniel Ziegler e Daniel Kokotajlo, ex ricercatore nella divisione di governance di OpenAI che ha anche spiegato al New York Times le motivazioni dietro questa campagna di sensibilizzazione. Kokotajlo, che ha 31 anni, racconta di essere entrato a far parte di OpenAI nel 2022 e che, in quanto ricercatore, gli fu chiesto di prevedere l’evoluzione dell’intelligenza artificiale nei prossimi anni. All’epoca il giovane scienziato pronosticò l’arrivo di un’A.G.I. nel 2050, ma dopo aver visto quanto velocemente l’intelligenza artificiale si evolveva ha rivisto i suoi calcoli. A suo avviso ci sono il 50% di possibilità che sia disponibile già nel 2027, quindi appena entro tre anni. Inoltre è convinto che esista il 70% di possibilità che nel futuro l’intelligenza artificiale distrugga o danneggi l’umanità in maniera catastrofica. Da qui, a suo dire, la necessità per la società di “orientarsi verso la sicurezza e dedicare più tempo e risorse alla protezione dai rischi dell’intelligenza artificiale piuttosto che impegnarsi per migliorare i propri modelli”. Kokotajlo ha dichiarato di essere arrivato a condividere le sue preoccupazioni direttamente con Sam Altman (il co-fondatore di OpenAI), che avrebbe condiviso il suo punto di vista. Alla fine però nulla sarebbe cambiato e l’azienda continuava a correre alla massima velocità. 

Gli accordi di riservatezza ‘capestro’

Ad aprile Kokotajlo ha abbandonato il suo lavoro, rifiutandosi di firmare gli accordi di riservatezza che includerebbero una clausola vessatoria nei confronti dell’ex dipendente, tale da fargli perdere il capitale guadagnato. Quello dell’ingegnere ammonta a circa 1,7 milioni di dollari e lui si è detto preparato a perderlo interamente. In realtà, il mese scorso, l’azienda è stata costretta a intervenire dopo che Vox ha riportato la notizia di questi accordi che, di fatto, silenziano i dipendenti. Altman si è dichiarato “imbarazzato” e OpenAI ha annunciato che li avrebbe rimossi dai suo contratti standard ed esonerato gli ex dipendenti dal rispettarli. 

Kokotajlo e gli altri firmatari della lettera hanno comunque chiesto a OpeinAI e alle altre società che operano nel settore dell’intelligenza artificiale di cancellare questi accordi, consentendo invece “una cultura di libera critica”. Hanno anche assunto un legale, l’avvocato e attivista Lawrence Lessig, affinché li aiuti nella loro battaglia.

Detto questo, per il gruppo che ha siglato la lettera un’autoregolamentazione del settore non è sufficiente per preparare al meglio il mondo a convivere con una intelligenza artificiale sempre più potente. “È necessaria una struttura di governo, trasparente e democratica, che si incarichi di questo processo. Invece ora tutto è in mano di un paio di diverse società private che gareggiano tra loro e mantengono tutto segreto”, ha dichiarato sempre Kokotajlo al quotidiano newyorkese.

Il caso copyright

Questa campagna di sensibilizzazione sui pericoli dell’intelligenza artificiale arriva in quello che è già un periodo complesso per OpenAI. Di recente, infatti, l’azienda ha dovuto affrontare una serie di battaglie legali per difendersi da chi la accusava di aver rubato opere protette da copyright per addestrare i suoi programmi. Lo tesso New York Times ha citato in giudizio OpenAI e il suo partner, Microsoft, per violazione del copyright. E la recente presentazione di un assistente vocale iperrealistico è finito al centro di una polemica con l'attrice Scarlett Johansson, che sosteneva che OpenAI avesse imitato la sua voce senza permesso.