Domenica 5 Maggio 2024

Aiuto, hanno creato la prima intelligenza artificiale psicopatica

Gli ingegneri del MIT hanno dato vita a una IA con un disturbo della personalità, che mostra il lato oscuro del machine learnig

(Foto: Devrimb/iSTock)

(Foto: Devrimb/iSTock)

Un gruppo di ricercatori del Massachusetts Institute of Technology (MIT) ha sviluppato quello che può essere definito il primo esempio di intelligenza artificiale "psicopatica". Ma niente paura, la supremazia delle macchine non è ancora così vicina: lo scopo dell'esperimento era di verificare in che modo dei dati corrotti possano distorcere un algoritmo, influenzando in modo negativo la sua capacità di giudizio. A proposito, l'IA è stata chiamata Norman, in omaggio al protagonista di Psycho Norman Bates. IDENTIKIT DI UNA IA PSICOPATICA Norman è una IA che attraverso il processo noto come machine learging (apprendimento automatico) è in grado di "osservare" e "capire" le immagini, descrivendo per iscritto ciò che ha appena analizzato. Per metterla alla prova, l'equipe del MIT l'ha prima addestrata con una serie di immagini raccapriccianti e violente prese da Reddit, e poi l'ha sottoposta al test della personalità di Rorschach, che consiste in un set di disegni (nello specifico: macchie di inchiostro simmetriche) da interpretare in base alla propria sensibilità. UNA MENTE ARTIFICIALE DISTURBATA Per fare qualche esempio, dove una IA standard ha visto "un paio di persone in piedi, l'una accanto all'altra", Norman ha riconosciuto invece "un uomo che si butta dalla finestra". Ma nel campionario degli orrori ci sono anche "un uomo assassinato con una mitragliatrice alla luce del sole" e "un uomo che viene risucchiato da una macchina per impastare". I PERICOLI DEL MACHINE LEARNIG L'esperimento, dicono i ricercatori, dimostra che i dati contano più dell'algoritmo. "Norman ha patito un'esposizione prolungata agli angoli più oscuri di Reddit e rappresenta un caso di studio sui rischi a cui un'intelligenza artificiale va incontro quando dei dati distorti vengono utilizzati negli algoritmi di apprendimento automatico", sottolineano i membri del team. Per avere riprova di tale affermazione non è però necessario fare conoscenza con la IA psicopatica del MIT; basta intrattenersi ad esempio con alcuni chat bot che si incontrano sul web, accusati di essere una sorgente inesauribile di pregiudizi. Studi precedenti hanno infatti dimostrato che, intenzionalmente o meno, gli algoritmi acquisiscono anche la parte peggiore della natura umana, diventando a loro volta razzisti e sessisti.