Futuro

TikTok, i genitori denunciano l’algoritmo

30 associazioni britanniche hanno inviato una lettera al responsabile della sicurezza del social network per i contenuti relativi a suicidio e disturbi alimentari: «Preoccupati dell’effetto dannoso sulla salute mentale dei bambini»
Credit: Masha Raymers
Fabrizio Papitto
Fabrizio Papitto giornalista
Tempo di lettura 3 min lettura
7 marzo 2023 Aggiornato alle 13:00

Circa 30 associazioni e organizzazioni di beneficenza britanniche hanno invitato TikTok a rafforzare le sue politiche di moderazione dei contenuti in materia di autolesionismo e disturbi alimentari.

In una lettera rivolta a Eric Han, responsabile della sicurezza TikTok, ricercatori, attivisti e genitori si sono detti «preoccupati in merito all’effetto dannoso dell’algoritmo della piattaforma sulla salute mentale e sul benessere dei bambini».

Ad allarmare i firmatari dell’appello la recente pubblicazione di uno studio, realizzato dal Center for Countering Digital Hate (Ccdh), secondo il quale l’algoritmo del social network spinge i contenuti relativi al suicidio e ai disturbi alimentari pochi minuti dopo che gli utenti hanno espresso interesse per quegli argomenti.

«I feed dei giovani sono bombardati da contenuti dannosi e strazianti che possono avere un impatto cumulativo significativo sulla loro comprensione del mondo che li circonda e sulla loro salute fisica e mentale», ha dichiarato Imran Ahmed, Amministratore delegato del Ccdh, che ha definito i risultati dello studio «l’incubo di ogni genitore».

Nel dettaglio, le analisi hanno rilevato che TikTok ha consigliato contenuti collegati al suicidio agli account creati dagli stessi ricercatori entro 2,6 minuti, ha mostrato contenuti relativi ai disturbi alimentari entro 8 minuti e ha consigliato video sull’immagine corporea e sulla salute mentale ogni 39 secondi.

«Riteniamo che sia sua responsabilità intraprendere azioni rapide e decisive per affrontare questo problema», aggiungono gli autori del documento, che invocano «la protezione dall’esposizione a contenuti dannosi che possono portare a esiti avversi come aumento dell’ansia, depressione e persino suicidio».

Gli enti benefici suggeriscono alcune iniziative per prevenire questo scenario. Come rafforzare le norme di moderazione dei contenuti o collaborare con organizzazioni ed esperti di salute mentale per identificare e rimuovere i contenuti dannosi in modo sistematico.

Ma anche fornire supporto agli utenti alle prese con disturbi alimentari o pensieri suicidi e aumentare la trasparenza e la responsabilità riferendo regolarmente sui passi intrapresi in questa direzione e sul loro impatto.

Il social, di proprietà della società cinese ByteDance, ha recentemente annunciato di voler introdurre un limite di utilizzo giornaliero di 60 minuti per gli utenti di età inferiore ai 18 anni. La misura è in ogni caso facoltativa e può essere disabilita in qualsiasi momento.

Leggi anche
Social network
di Ilaria Marciano 3 min lettura
Piattaforme
di Ilaria Marciano 3 min lettura