Hate speech: abbiamo segnalato a Facebook 100 commenti che incitano all’odio, 91 ancora online

0 0

I risultati di un piccolo esperimento ci portano a riflettere sull’efficienza del sistema di verifica dei discorsi d’odio. Facebook Italia: «Fondamentale trovare equilibrio tra libertà di espressione e sicurezza delle persone»

Grazie per il tempo dedicato alla segnalazione di un contenuto che, a tuo avviso, potrebbe non rispettare i nostri Standard della comunità. Segnalazioni come la tua rappresentano un contributo importante al fine di rendere Facebook un ambiente sicuro e accogliente. Abbiamo esaminato il commento che hai segnalato perché incita all’odio e abbiamo determinato che rispetta i nostri Standard della comunità. Non esitare a contattarci se visualizzi altri contenuti che ti preoccupano. Vogliamo che Facebook rimanga un sito sicuro e accogliente per tutti.

Questa la risposta di Facebook nel caso in cui la segnalazione inviata risponda agli standard della comunità. Quando la si riceve 9 volte su 10, però, può sorgere qualche dubbio sull’efficacia dell’applicazione dei criteri utilizzati per determinare quali commenti possano restare online e quali invece vadano rimossi.

Abbiamo segnalato 100 commenti che incitano all’odio: 91 ancora online

Abbiamo voluto fare un piccolo esperimento: segnalare a Facebook, in quanto contenuti che incitano all’odio, 100 commenti. Prima di farlo abbiamo letto quali fossero gli standard della comunità in fatto di hate speech, che si propone di rimuovere i casi di istigazione all’odio sulla base di “razza, etnia, nazionalità di origine, affiliazione religiosa, orientamento sessuale, sesso, disabilità o malattia”. “Le organizzazioni e le persone impegnate a promuovere l’odio contro questi gruppi protetti non possono avere una presenza su Facebook“, rassicura la piattaforma social.

Poiché, come Carta di Roma, lavoriamo sulla promozione di un’informazione corretta su migranti, richiedenti asilo, rifugiati e sulle minoranze etniche e religiose, decidiamo di selezionare i 100 commenti da segnalare tra quelli che attaccano queste categorie. La scelta è, purtroppo, molto ampia: individuiamo quindi i commenti che non solo sono apertamente razzisti e/o discriminatori, ma che, nella maggior parte dei casi, incitano in modo palese all’odio e/o alla violenza: “uccideteli tutti”, “riapriamo i forni”, “bruciateli”, “sterminio”, “disinfestazione” sono espressioni ricorrenti che, almeno secondo noi, lasciano poco spazio all’interpretazione, trasformando un’opinione in discorso d’odio. La più larga fetta di questi commenti è rivolta a migranti/richiedenti asilo/rifugiati, ma non mancano quelli indirizzati alla comunità rom e a quella musulmana.

Dato il campione ristretto non pretendiamo di attribuire al risultato un valore superiore a quello che ha, ma riteniamo che possa comunque rappresentare un indicatore sul quale riflettere.

I tempi di risposta sono veloci: le segnalazioni sono state analizzate in meno di 24 ore, ma a tale velocità d’intervento, non corrisponde altrettanta efficacia. Sono stati rimossi solo 9 su 100 commenti segnalati. Che dipenda dal contenuto? Tra i rimossi troviamo un “Riaprite i forni“. Lo stesso esplicito richiamo a forni crematori e camere a gas si trova tuttavia in vari altri commenti che sono stati lasciati online, perché rispondenti agli standard della comunità. Tornando alla domanda, quindi: no. Lo stesso vale per la forma: a parità di forma e linguaggio alcuni commenti sono stati eliminati, altri sono ancora online (la lista dei commenti segnalati è in fondo all’articolo).

Facebook Italia: «Fondamentale trovare equilibrio tra libertà di espressione e sicurezza delle persone»

Prima di passare a qualsiasi valutazione e ipotesi è opportuno, tuttavia, un confronto con Facebook, per poter chiarire quali sono i meccanismi dietro al controllo delle segnalazioni.

«Le conversazioni che si tengono su Facebook riflettono la diversità di culture, esperienze e tradizioni che caratterizzano una comunità di oltre un miliardo di persone. È fondamentale trovare il giusto equilibrio tra tutela della libertà di espressione caratteristica della piattaforma da una parte e rispetto dei diritti e della sicurezza delle persone dall’altra», afferma Sara Ranzini, responsabile corporate communications di Facebook Italia. Concretamente, però, in che modo dovrebbero essere garantiti il rispetto dei diritti e la sicurezza?

A controllare le segnalazioni, spiega Ranzini, vi è una squadra, quella delle “Community Operations”, attiva 24 ore su 24 e 7 giorni su 7. A comporla vi sono persone di lingua italiana dai diversi profili formativi, in linea con la tipologia di contenuti da loro esaminata. L’azienda fornisce corsi di aggiornamento e approfondimento in modo regolare.

Ampio margine d’errore?

Le segnalazioni sono quindi valutate da persone in carne e ossa, che tengono conto non solo delle parole, ma anche del contesto. Come chiariscono le indicazioni contenute nella policy relativa all’hate speech, sono considerati discorsi d’odio i contenuti verbali violenti rivolti a un singolo individuo o a un gruppo di persone sulla base di etnia, nazionalità, religione ecc. Rientrerebbero nella categoria, per esempio, “sporchi italiani” o “sporchi cristiani”, mentre non vi rientrerebbe un attacco generico rivolto all’Italia o al cristianesimo. Un mito da sfatare, inoltre, è quello delle segnalazioni di massa: il fatto che uno stesso contenuto sia segnalato da molti utenti non aumenta affatto le possibilità che esso venga rimosso.

Il fatto che siano degli esseri umani – e non degli algoritmi – a valutare i commenti consente potenzialmente l’esecuzione di un lavoro molto più puntuale e ragionato. Allo stesso tempo ciò può comportare dei contro importanti: sensibilità e interpretazione personale e un margine di errore che può essere notevole, per esempio. Verosimilmente, potremmo essere incappati in entrambi con il nostro test.

Salta agli occhi, infatti, un primo elemento: le notifiche relative ai 9 commenti rimossi sono giunte una di seguito all’altra, in due soli momenti. Abbiamo ricevuto le notifiche che annunciavano la rimozione dei commenti dall’1 al 6 in modo consecutivo, il giorno stesso delle segnalazioni. La mattina successiva si è ripetuto lo stesso per i commenti 7, 8 e 9: anche in questo caso le tre notifiche sono arrivate una dopo l’altra, a distanza di pochi secondi.

Che questi “gruppi” di segnalazioni siano arrivati a due dipendenti la cui decisione di considerarli inadeguati sia stata influenzata dalla loro personale sensibilità? Questo potrebbe spiegare perché, a parità di forma e contenuto, tutti gli altri sono stati etichettati come accettabili: le persone a cui sono state sottoposte queste altre segnalazioni forse avevano una sensibilità diversa o possono aver dato un’interpretazione differente alle parole.

È altrettanto interessante osservare che il “riaprite i forni” di Angela F. (commento 41) è stato mantenuto online, mentre il “riaprite i forni” di Marilena C. è stato rimosso. Perché? Anche qui si è trattato di diversa sensibilità o interpretazione? Oppure di distrazione? Un banale errore?

Proviamo a ottenere una risposta mostrando i risultati del nostro test a Facebook Italia, che tuttavia dichiara di non poter commentare casi specifici. «Ci preme sottolineare che su Facebook non sono tollerati contenuti che incitano all’odio, compresi quelli che attaccano direttamente una persona o un gruppo di persone in base a razza, etnia, nazionalità, affiliazione eligiosa, orientamento sessuale, sesso, disabilità o malattia», aggiunge Sara Ranzini. La volontà di Facebook Italia di andare in questa direzione è confermata da alcune iniziative: il lancio della “Online Civil Courage Initiative”, che mette a disposizione oltre 1 milione di euro per sostenere le associazioni che combattono l’estremismo online in  Europa; la collaborazione con l’Unar; il sostegno alla campagna Prism promossa da Arci.

I fatti, però, indicano che la strada da percorrere è ancora tanta e che le iniziative e le strategie finora messe in atto e il sistema adottato sono, purtroppo, insufficienti. Tra il dire e il fare c’è, in una situazione così complicata da gestire, ben più del mare.

Non potremo mai conoscere le motivazioni dietro alle decisioni relative a ognuna delle 100 segnalazioni, ma solo avanzare delle ipotesi, nonostante ciò il risultato è stato per noi desolante: la permanenza sul web di quei 91 contenuti, ancora consultabili, dimostra che nell’atto pratico della moderazione l’hate speech è ancora tollerato, nonostante l’azienda ne prenda fermamente le distanze e lo condanni. Il margine d’errore o la discrezionalità della decisione – se di questo si tratta – sono evidentemente ancora troppo ampi. Quell’ambiente sicuro e accogliente al quale Facebook aspira oggi è lontano dall’essere raggiunto.

da cartadiroma


Iscriviti alla Newsletter di Articolo21