Sei qui:  / Blog / Guardian: Fb, pochi secondi ai moderatori per decidere se rimuovere o meno un contenuto

Guardian: Fb, pochi secondi ai moderatori per decidere se rimuovere o meno un contenuto

 

Il social media è stato messo sotto la lente d’ingrandimento da parte del Guardian per capire come sono valutati i contenuti segnalati

Contenuti valutati in appena 10 secondi e una tendenza alla tolleranza: è quanto rilevato dall’inglese The Guardian in relazione alla moderazione nel social network Facebook.

Le osservazioni fatte della testata sono state possibili grazie all’analisi di centinaia di documenti ottenuti dal quotidiano e prontamente soprannominati Facebook Files che sarebbero stati prodotti dall’azienda fondata da Mark Zuckerberg per fornire indicazioni ai moderatori su come valutare, e quindi stabilire se rimuovere o meno, contenuti violenti: hate speech, terrorismo, pornografia, razzismo, autolesionismo sono solo alcuni dei temi trattati dai manuali, dai grafici e dagli opuscoli esaminati.

Un tema, quello della moderazione dei contenuti, al quale come Carta di Roma si dedica da tempo: poco più di un mese fa, ad aprile, avevamo pubblicato i risultati di un piccolo test condotto su Facebook, nel quale rilevavamo come, su 100 commenti segnalati esplicitamente incitanti all’odio, solo 29 fossero stati rimossi.

Poco tempo e molte zone grigie

I Facebook Files, secondo quanto sostiene il Guardian, mostrerebbero le difficoltà affrontate da coloro che si occupano della moderazione dei contenuti segnalati: il lavoro è tantissimo, cosa che significherebbe, concretamente avere spesso “solo 10 secondi” per prendere una decisione. Proprio a inizio maggio l’azienda ha annunciato di voler assumere 3mila nuove persone per allargare le squadre addette alla revisione delle segnalazioni.

Un problema, quello della mole di lavoro e del poco tempo a disposizione che contribuisce probabilmente ad ampliare il margine di errore di chi interviene. Dei 71 contenuti incitanti all’odio rimasti online dopo la nostra segnalazione, 7 sono stati rimossi in un successivo momento poiché la loro non rimozione, come spiegato da Facebook, era stata un errore. Un esempio, in piccola scala, di come le sviste possano verificarsi.

Numerosi altri elementi importanti per comprendere i meccanismi che conducono alla rimozione dei contenuti si troverebbero all’interno dei documenti, a partire dalla definizione di ciò che sarebbe in grado di rappresentare una vera minaccia: “il linguaggio violento –  riporta il Guardian citando i Facebook Files – è nella maggior parte dei casi non credibile fino a quando la specificità del linguaggio non ci fornisce una base ragionevole per credere che non si tratti più della semplice espressione di un’emozione, ma del passaggio a una pianificazione. Da questo punto di vista contenuti come Ti ucciderò o Vai a quel paese e muori non sono credibili e rappresentano un’espressione violenta di avversione e frustrazione”.

Questo inciderebbe sui tempi di intervento: come ci è stato spiegato ad aprile da Facebook, in seguito a un confronto sui risultati del test, nel decidere quali segnalazioni trattatare per prime i moderatori si basano sul cosiddetto “real world risk”, ossia il livello di rischio corso dalla vittima o dalle vittime dell’attacco al di fuori della piattaformaContinua su cartadiroma

TI POTREBBE INTERESSARE ANCHE