"Facebook fa (ancora) troppo poco per contrastare odio e violenza online"

L’accusa è del Wall Street Journal, che cita documenti interni di Facebook: gli algoritmi del social non sono in grado di bloccare contenuti offensivi

Login di Facebook da pc

Login di Facebook da pc

È ancora il WSJ a puntare il dito contro Facebook e la sua incapacità di filtrare i post che compaiono sulla piattaforma e contengono immagini e parole di odio e violenza. Il giornale americano, dopo aver svelato la ricerca interna dell’azienda di Zuckerberg con dati preoccupanti sulle reazioni degli adolescenti ai post su Instagram, stavolta accusa i potenti algoritmi di Facebook di non essere in grado di bloccare contenuti che andrebbero immediatamente censurati. Gli algoritmi di Facebook non riescono a bloccare post di odio e violenti L’intelligenza artificiale di Facebook, da sempre uno dei fiori all’occhiello dell’azienda americana, riesce a rimuovere soltanto una piccola percentuale di post che contengono contenuti violenti, discriminatori, sessisti e che incitano all’odio online. Va giù duro con le accuse anche questa volta il Wall Street Journal citando documenti interni di Facebook che metterebbero in risalto tutte le criticità degli algoritmi del social network, inadeguati a combattere l’hate speech. Secondo il giornale americano l’IA di Facebook non è capace di identificare correttamente i video che andrebbero immediatamente bloccati: incidenti stradali, combattimenti tra animali e altri contenuti simili vengono pubblicati e diventano virali in poco tempo nonostante la presunta censura preventiva del social. Tutto questo è dovuto – sempre secondo quanto rivelato dal WSJ – alla politica che Facebook ha deciso di adottare nei confronti dei post di dubbia matrice: nessuna rimozione ma una semplice diminuzione delle visualizzazioni sulle bacheche degli utenti. Facebook avrebbe anche deciso di ridurre gli investimenti sul personale che ha l’incarico di sorvegliare i post degli utenti, impedendo la diffusione di contenuti violenti e discriminatori. Quasi tutto il lavoro viene svolto da algoritmi che – secondo il Wall Street Journal – non sono minimamente in grado di bloccare l’odio online. La risposta del social network Facebook, anche questa volta, rispedisce al mittente le accuse del giornale americano e fa sapere che, grazie alla sua intelligenza artificiale “la visualizzazione di contenuti contenenti incitamenti all'odio si è dimezzata rispetto all'anno scorso (da 10 a 5 ogni 10.000) grazie all'applicazione di algoritmi di screening definiti classificatori”. Nonostante questo risultato apparentemente rassicurante i vertici del social network sono consapevoli che “questo strumento necessita ancora di apprendimento, come gli studenti delle scuole elementari che hanno bisogno di insegnanti e sono ancora piuttosto ingenui".