Facebook e rimozione parole d’odio: sconfortanti i risultati

0 0
Una madre coi suoi due figli piccoli va a fare la spesa in un negozio alla periferia di Boston. All’improvviso i ragazzi sono avvicinati da un uomo che li riempie di insulti, loro (gli aggrediti) restano senza parole, sconvolti. Il problema è che loro sono neri e l’uomo è bianco. La mamma, che si chiama Francie Latour, li consola e rassicura. Ma non le basta chiudere così la vicenda, vuole raccontare quanto è avvenuto, condividerlo, non se la sente di “restare in silenzio“. E allora decide di descrivere l’accaduto sul suo profilo Facebook. Riporta i fatti, le parole usate dall’uomo pensando che non c’è altro modo per farne risaltare la violenza e la volgarità. Ma dopo che succede? Accade che il suo post in un battibaleno, dopo solo venti minuti, venga cancellato, perché viola le regole che si è dato il social network contro lo hate speech, le parole d’odio.

Questa storia paradossale e per questo emblematica la riassume il Washington Post in prima pagina. Non si tratta di qualcosa di nuovo, c’erano già state moltissime denunce precedenti, ma è la riprova che ( malgrado le affermazioni di Zuckerberg, le sua ammissioni di responsabilità, le persone assunte e ancora da assumere per controllare) gli algoritmi continuano a essere stupidi, a colpire chi denuncia piuttosto che chi ( basta solo un pizzico di furbizia) immette contenuti che aggrediscono quotidianamente donne e minoranze. Oggi facebook dice di eliminare 288 mila post al mese. ma sono quelli “giusti”? E anche la decisione di sospendere per 24 ore o più un utente come viene presa? Di chi è la responsabilità se un troll riempie di parolacce la tua pagina?
Poiché la stessa cosa accade con analoga frequenza pure con i filmati c’è da essere allarmati. Sospendendo il giudizio sulle buone intenzioni dei gestori di questa “piazza virtuale” il problema è che affidarsi ai meccanismi automatici espone al rischio totale, di venire risucchiati in paradossi, contraddizioni, censure ingiustificate. E’ un argomento questo che dovrebbe valutare bene pure chi in italia pensa di poter battere lo hatespeech “alleandosi” con le grandi compagnie. Con due miliardi di utenti come fa Facebook a “sorvegliare” quanto avviene? Non è che si è lasciato a una multinazionale privata che vive di pubblicità e quindi di traffico uno spazio enorme?
Belle domande tutte aperte. Se siete arrivati fin qui vi chiederete come è finita la vicenda della signora Latour. Dopo 24 ore l’ azienda di Zuckerberg le ha inviato un avviso automatico affermando che un membro della sua squadra aveva rimosso il suo post in errore senza dare peraltro nessun’altra spiegazione. “Per Facebook, la cancellazione del linguaggio dell’odio è un compito arduo”, titola il Washington Post, quasi una sfida scoraggiante. Sarebbe importante se ne tenesse conto pure in Italia. 


Iscriviti alla Newsletter di Articolo21