Diritti

Meta è responsabile dei post di incitamento all’odio?

Due cittadini sostenuti da un’organizzazione kenyota hanno fatto causa a Facebook per non aver fermato i contenuti di violenza durante la guerra civile del Tigray: «mio ​​padre sarebbe ancora vivo».
Credit: EPA/KIM LUDBROOK 
Fabrizio Papitto
Fabrizio Papitto giornalista
Tempo di lettura 4 min lettura
16 dicembre 2022 Aggiornato alle 12:00

Meta, la casa madre di Facebook e Instagram, è stata accusata di non aver risposto in modo adeguato ai messaggi di odio diffusi sul social network in relazione alla guerra civile nella regione settentrionale del Tigray in Etiopia, conclusasi con un accordo di pace siglato a novembre dopo due anni di conflitto, migliaia di morti e milioni di sfollati.

La causa è stata presentata il 14 dicembre presso l’Alta corte del Kenya da due cittadini etiopi, uno dei quali è un ricercatore per Amnesty International, insieme all’organizzazione legale kenyota Katiba Institute, e secondo quanto riferisce il Guardian punta alla creazione di un fondo da 200 miliardi di scellini kenioti (circa 1,5 miliardi di euro) per le vittime di incitamento all’odio.

Uno dei firmatari, Abrham Meareg, sostiene che suo padre, un accademico etiope, è stato preso di mira da messaggi razzisti prima del suo omicidio nel novembre 2021, che Facebook non abbia rimosso i post nonostante le denunce.

«Se Facebook avesse fermato la diffusione dell’odio in tempo e moderato correttamente i post, mio ​​padre sarebbe ancora vivo», ha detto Meareg. «Perché ci è voluto più di un mese per rimuovere un post che chiedeva l’omicidio di qualcuno?», chiede il suo avvocato Mercy Mutemi.

«Sto portando Facebook in tribunale in modo che nessuno soffra mai più come ha fatto la mia famiglia – ha aggiunto Meareg – Chiedo giustizia per milioni di miei concittadini africani feriti dall’affarismo di Facebook e scuse per l’omicidio di mio padre».

Il portavoce di Facebook, Ben Walters, ha replicato all’agenzia di stampa Associated Press che l’azienda ha «regole rigide che delineano ciò che è e non è consentito su Facebook e Instagram. L’incitamento all’odio e l’incitamento alla violenza sono contrari a queste regole e investiamo molto in team e tecnologia per aiutarci a trovare e rimuovere questi contenuti».

Non è la prima volta che Meta viene accusata di non essere intervenuta tempestivamente per non aggravare il conflitto in Etiopia. A febbraio di quest’anno, un’indagine condotta dal Bureau of Investigative Journalism in collaborazione con l’Observer ha rilevato come Facebook continuasse a consentire la diffusione di odio e disinformazione nonostante fosse consapevole del clima di tensione che contribuiva a generare.

Un documento interno a Facebook del giugno 2020 parlava di «lacune significative nella nostra copertura (soprattutto in Myanmar ed Etiopia)». A dicembre dello stesso anno, la situazione in Etiopia – che nel 2019 veniva già definita “grave” – era l’unica classificata come “dire” (‘terribile’, ‘atroce’), il grado più alto di minaccia.

Nel 2018 Facebook ammise di non aver fatto abbastanza per prevenire l’incitamento all’odio contro i Rohingya, una minoranza etnica musulmana in Myanmar che alla fine del 2021 citò in giudizio il social network a fronte di una richiesta di risarcimento di 150 miliardi di dollari.

«La diffusione di contenuti pericolosi su Facebook è al centro della ricerca del profitto di Meta, poiché i suoi sistemi sono progettati per mantenere le persone coinvolte», ha dichiarato Flavia Mwangovya, vicedirettrice regionale di Amnesty International. «Questa azione legale è un passo significativo per ritenere Meta responsabile del suo modello di business dannoso».

Leggi anche
Privacy
di Fabrizio Papitto 3 min lettura
Gravidanza
di Chiara Manetti 4 min lettura