Sabato 20 Aprile 2024

Facebook e il controllo dei post, Guardian: "Ecco le regole del colosso"

"Sesso, suicidi e minori: così lavorano i moderatori". L'inchiesta del quotidiano britannico, entrato in possesso di centinaia di manuali di istruzione

Facebook

Facebook

Roma, 22 maggio 2017 - Sesso, pornografia, razzismo, terrorismo. Come si comporta Facebook con i materiali 'caldi'? Che regole usano i moderatori del social network quando si trovano a dover decidere di testi e foto 'sensibili'? A queste domande risponde un'inchiesta del Guardian che si basa su un centinaio di manuali di cui il quotidiano britannico è entrato in possesso. 

Partiamo dando qualche numero: "Facebook ha 4500 moderatori - scrive il Guardian - e sta progettando di assumerne altri 3mila". Ci sono poi quelli che lavorano 'in appalto' e che sono dislocati in giro per il mondo. Il colosso social però "si rifiuta di dire quanti siano, né dove si trovino". In ogni caso, ogni collaboratore viene addestrato in sede (California) per un paio di settimane, e equipaggiato con guide che contengono i protocolli. Sono proprio questi manuali che il Guardian è riuscito a visionare. La policy è molto dettagliata: ci sono addirittura regole che riguardano le partite truccate e il cannibalismo, precisa il giornale. Se esiste una questione controversa, allora Facebook deve darsi una norma in materia. 

LE REGOLE SUI POST VIOLENTI-  Ecco le indicazioni che Facebook fornisce ai 'controllori' riguardo i post violenti, secondo la ricostruzione del Guardian. Frasi come "Qualcuno spari a Trump" devono essere cancellate, perché un capo di stato rientra in una categoria protetta. Ma può essere permesso dire "fottiti e muori", perché non è considerata minaccia credibile. Non tutti i video di morti violente devono essere rimossi perché possono contribuire a creare consapevolezza di problemi come la malattia mentale. Le foto di bullismo sono tollerate: ma non ci deve essere una componente sadica o celebrativa. I video di aborti sono consentiti, purché non ci siano nudità così come le immagini di abusi su animali (vanno contrassegnate quelle più inquietanti). Tutta l'arte 'artigianale' che mostri attività sessuali è concessa. Non quella digitale. Facebook consente agli utenti anche di filmarsi live durante atti di autolesionismo "perché non vuole censurare o punire le persone in difficoltà". 

IL RUOLO DEI MODERATORI - "Facebook ha sistemi automatici per eliminare i contenuti estremi prima che colpiscano il sito, in particolare sull'abuso sessuale e il terrorismo - scrive il Guardian - ma i moderatori non sono coinvolti direttamente in questo processo". Quello che fanno i moderatori è esaminare "milioni di rapporti indicati dagli utenti di Facebook" e "utilizzare i manuali per decidere se ignorare o eliminare ciò che vedono". Una terza opzione è inoltrare il rapporto a un manager senior in modo che sia lui a prendere una decisione, passaggio chiave soprattutto nei casi di potenziale suicidio o autolesionismo. Esistono infatti team del gruppo in contatto con forze di sicurezza e agenzie di supporto. 

COMMENTI CRUDELI - ​In caso di commenti "crudeli o insensibili", i moderatori possono raccomandare un "controllo crudeltà": alla persona che ha postato il contenuto inappropriato viene inviato un messaggio in cui si chiede di ripostarlo o eliminarlo. Se il comporamento aggressivo persiste si passa alla sospensione del profilo. 

10 SECONDI A IMMAGINE - Una fonte citata dal giornale afferma che "Facebook è diventato troppo grande per riuscire a controllare i contenuti". La mole di materiale da vagliare sarebbe eccessiva per i moderatori, che hanno difficoltà soprattuto con i contenuti sessuali. In casi come il cosiddetto 'revenge porn' (cioè le persone lasciate che si vendicano postando immagini intime e personali per danneggiare l'ex partner), le istruzioni sarebbero "complesse e confuse": "In molte situazioni occorre decidere se l'immagine è appropriata in meno di 10 secondi". 

Facebook riconosce le difficoltà affrontate dai suoi collaboratori, che in alcune situazioni - secondo il Guardian - arriverebbero a soffrire di disturbi legati allo stress. Ecco il commento della società riportato dal quotidiano a questo proposito: "Molti contenuti sono sconvolgenti. Vogliamo assicurarci che i moderatori siano in grado di acquisire la fiducia necessaria per prendere la decisione giusta, ma anche che abbiano le risorse mentali ed emotive per rimanere in buona salute. Questa è un'altra grande sfida per noi".