Meta introduce nuove misure di sicurezza per i minori

 

Il colosso statunitenseMeta, proprietario di Facebook e Instagram, ha da poco introdottonuove misure di sicurezza e di protezione sui contenutiche vengono pubblicati dagli utenti al fine dimettere in guardia gli adolescenti più fragili e sensibilisu temi comesalute mentale,sviluppoeautolesionismo. Queste nuove misure di sicurezza si inseriscono in unquadro più ampio sulla protezione dei minori dai contenuti inappropriati: da questo momento in poi sarannorimossi tutti i post relativi al suicidio, ai disturbi alimentari e all’autolesionismoda tutti gli account degli adolescenti iscritti alle piattaforme dell’azienda,anche se si tratta di post pubblicati da account di amici o pagine seguite. Agli account dei più piccoli verranno inoltreimpostate automaticamente le massime restrizioni sui contenuti sensibilie non verrà mostrato alcun risultato relativo a questo tipo di contenuti. Se per esempio un ragazzino o una ragazzina digitano sulla barra di ricerca parole come “Suicidio”, “Bulimia” o “Autolesionismo”, la piattaforma, oltre abloccare i termini, forniràrisorse di aiuto, anche psicologico,indirizzando così la ricerca verso una linea di supporto. Maqueste nuove norme non convincono gli esperti e i critici. Le motivazioni sono diverse, ma le critiche principali vengono rivolte allapoca trasparenza diMeta. L’azienda, infatti,non fornisce dati utili a capire quanto siano efficaci queste regolamentazioni, lasciando non pochi dubbi. Senza dati concreti non è possibile conoscere e studiare il reale impatto di queste misure, masi può immaginare quanto siano facili da aggirare: gli adolescenti potrebbero semplicemente creareprofili falsi dichiarando un’età non realee consultare questi contenuti, evitando così le restrizioni. Inoltre, la piattaforma utilizzadiverse tecnologie basate sull’intelligenza artificialepercapirese i post sono allusivi, discriminatori o se presentano contenuti sensibili.Spesso questi sistemi non sono precisi e i criteri che utilizzano sono confusionari: questo significa che può capitare che vengano eliminati per errore contenuti che in realtà non violano le nuove norme. Josh Golin, direttore esecutivo diFairplay, un’organizzazione no-profit che si batte contro il marketing basato sui dati dei bambini, è deluso: «Hanno avuto più di un decennio per rendere la loro piattaforma più sicura per i giovani  -diceGolin alWashington Post -e hanno fallito miseramente». Non è la prima volta cheMetafinisce sotto i riflettori per la sicurezza dei suoi utenti, soprattutto quelli più giovani. A fine ottobre del 2023 ben33 Stati degliUsahannointentato causa alla piattaforma di MarkZuckerberg con l’accusa di effettuare pratiche che violano le leggi sulla gestione dei profili social dei minori. Le aziende hanno accusatoMetadi aversottratto i dati di migliaia di utenti minorenni senza il consenso dei genitori e di aver violato così la loro privacy. Queste nuove regole arrivano giusto qualche settimana prima del 31 gennaio 2023, quando Zuckerberg dovrà presentarsi di fronte allaCommissione Giustiziadel Senato statunitenseper un’udienza relativa all’incapacità di alcune aziende di tutelare la sicurezza dei bambini online. In Commissione saranno ascoltati i vertici più alti dicinque aziende tecnologiche(oltre aMetaancheSnapchat,X,TiktokeDiscord). Secondo i vertici diMeta,che difendono l’operato della piattaforma e smentiscono che le regole siano state pianificate ad hoc per l’udienza,la sicurezza degli adolescenti è una priorità. «Costruiamo continuamente nuove protezioni per mantenere gli adolescenti al sicuro.  -diceLiza Crenshaw, portavoce dell’azienda – Questi aggiornamenti sono il risultato di tale impegno e consultazione continui e non sono in risposta a nessun evento particolare».

Commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *