Mercoledì 24 Aprile 2024

"Arrestate quel robot": nasce il codice extraumano

Una commissione sta studiando norme specifiche

L’ultima versione di RoboCop.

L’ultima versione di RoboCop.

LUCA BOLOGNINI

TERMINATOR finirà in tribunale accusato di terrorismo e RoboCop sarà finalmente costretto a pagare tutte quelle multe per parcheggio in zona vietata. Ma quali norme permetteranno in futuro a un giudice di punire un cyber-tassista che, per esempio, ha investito e ucciso cinque persone?

Negli anni Quaranta, il grande scrittore russo di fantascienza Isaac Asimov elaborò le tre leggi della robotica: un semplice codice che non consentiva alle macchine di danneggiare l’uomo. Ai ricercatori e ai docenti che hanno partecipato a RoboLaw sono bastati 27 mesi per cancellare per sempre queste regole. Al progetto (finanziato dalla Ue con 1,5 milioni di euro) ha partecipato una comunità eterogenea (giuristi, filosofi e ingegneri) di studiosi italiani, tedeschi e inglesi. Il coordinamento è stato affidato all’università Sant’Anna di Pisa e i risultati sono stati recentemente presentati al Parlamento europeo.

I robot hanno bisogno di leggi?

«Qualsiasi cosa che esiste – spiega Andrea Bertolini, ricercatore dell’ateneo toscano e tra i protagonisti dello studio – è già regolata dai codici in vigore. Non sempre è necessario scrivere nuovi atti. Il problema è capire, nel singolo caso, quale sia la migliore disciplina che si può applicare».

Troppe regole non frenano l’innovazione?

«Il rischio c’è. Ma punire sempre il produttore può rivelarsi un boomerang. Esaminiamo il caso dell’auto in grado di muoversi senza conducente. Secondo alcuni studi, potrebbe ridurre il numero degli scontri del 94%. È una tecnologia altamente desiderabile. Ma se chi la produce viene sempre ritenuto responsabile degli incidenti, si crea un effetto deterrente enorme. Bisogna trovare delle regole che garantiscano la sicurezza, ma che non ostacolino la produzione. Questo è stato il nostro lavoro».

In caso di decisioni critiche, come quella di una cyber-auto che deve scegliere se continuare sulla propria strada e uccidere cinque persone o sterzare e ucciderne una, a che conclusioni siete giunti?

«Si può dare un peso alla vita umana? Come si può risolvere un problema simile? Il criterio numerico è sufficiente per prendere una decisione? La vita non può avere un prezzo, per cui alla fine ci si potrebbe orientare su un software che in situazioni del genere decida in maniera assolutamente casuale».

Per alcuni esperti entro il 2040 le macchine saranno coscienti della loro esistenza. Potrebbero anche agire per danneggiare l’uomo?

«Qui siamo ai confini della fantascienza. Al di là delle immani difficoltà tecniche, perché l’uomo dovrebbe sviluppare queste tecnologie? Che senso ha progettare robot che invece di lavare la casa, come gli ordina il loro padrone, se ne stanno sul divano a guardare la tv? Finché le macchine saranno costrette a obbedire, non potranno essere definite soggetti autonomi. Quindi non avranno responsabilità. Almeno da un punto di vista teorico».

E da un punto di vista pratico?

«Potrebbe avere un senso fornire ai robot uno status simile a quello delle società di capitali. Ad alcuni software che svolgono attività come comprare e vendere azioni potrebbe essere riconosciuta personalità giuridica e potrebbero essere creati fondi di compensazione a loro collegati. Così se il loro algoritmo si dovesse rivelare un fallimento, verrebbe intaccato il capitale del robot e non i fondi personali dei soci che hanno partecipato al suo sviluppo. Inoltre ci sono dei progetti per “installare” nelle macchine un codice etico».

Vi siete ispirati ad Asimov?

«No, il codice elaborato dallo scrittore russo è pensato per un’intelligenza artificiale simile a quella umana. Noi ci siamo occupati dei problemi pratici che si incontrano nella quotidianità. Sono proprio piani del tutto diversi».

Gli ingegneri cosa pensano del vostro lavoro?

«Si innervosiscono. Ai giuristi amano ripetere: “Lasciateci lavorare in pace”. La disciplina del prodotto risale agli anni Ottanta. Molti non capiscono che un sistema normativo chiaro non imbriglia lo sviluppo, ma lo favorisce. In Italia, ad esempio, non è possibile fare prove su strada di auto senza conducente. Chi lavora in questo campo deve sempre trovare accordi ad hoc con le autorità locali. Come si assicura una macchina che guida da sola? Si può definire veicolo a motore? RoboLaw ha tentato di individuare i problemi e di cercare delle soluzioni. Sennò l’Europa finirà sempre per consumare tecnologie prodotte da altri».