Futuro

Le Big Tech al varco del Digital Service Act

Il nuovo regolamento Ue impone a 19 colossi digitali (tra social e piattaforme online) di rivedere le proprie politiche interne in termini di trasparenza, tolleranza zero verso messaggi d’odio e disinformazione
Credit: HI! ESTUDIO

Tra un reel e un altro su Instagram, oppure scrollando il feed del “fu” Twitter (ora X dopo il passaggio a Elon Musk), gli utenti hanno sempre trovato annunci pubblicitari straordinariamente precisi, grazie a un algoritmo capace di identificare le nostre preferenze basandosi anche su informazioni sensibili (come la religione, le preferenze sessuali, la condizione di salute o le inclinazioni politiche) da trasformare in pubblicità mirate.

Con il Digital Service Act, il nuovo regolamento Ue sui contenuti online adottato nel 2022 e recepito definitivamente alla fine di agosto dalle principali piattaforme digitali, questo non è più possibile. Un totale di 19 Big Tech, tra social e motori di ricerca, si è conformato alle nuove norme comunitarie, accettando una maggiore responsabilità per i contenuti che ospitano; come? Aumentando la trasparenza nelle loro policy e dando agli utenti maggiore controllo sulle loro esperienze digitali.

La volontà di bilanciare l’innovazione online e la libertà di espressione con la necessità di affrontare tematiche quali disinformazione e contenuti dannosi per gli utenti è risultata necessaria: parliamo, infatti, di applicazioni e motori di ricerca visitati ogni mese da più di 45 milioni di europei.

Tolleranza zero per i contenuti illegali

Venendo alle misure adottate dall’Ue, alle aziende viene imposto di rimuovere rapidamente i contenuti considerati illegali secondo quanto definito dalle leggi europee e nazionali.

Le 19 Big Tech devono disporre di meccanismi chiari e semplici che consentano agli utenti di segnalare i contenuti che ritengono illegali, e sono obbligate a sospendere gli utenti che li pubblicano.

In caso di marketplace, come Amazon e AliExpress, c’è l’obbligo da parte delle aziende di controllare che i loro partner non vendano online prodotti illegali, dalle scarpe di lusso false ai giocattoli pericolosi.

Disinformazione e cyberbullismo

Contro la disinformazione, le piattaforme e i motori di ricerca devono consegnare alla Commissione europea una relazione annuale riguardo i rischi sistemici per i cittadini europei; inoltre, una modifica dei loro algoritmi e l’attivazione di sistemi di controllo genitoriale permettono di limitare la diffusione di campagne di disinformazione (che in tempi di pandemia e guerra possono “inquinare” molto il dibattito) e di cyberbullismo, andando a contrastare il fenomeno dell’hate speech.

Più potere agli utenti

La semplificazione dei termini e delle condizioni di iscrizione e utilizzo delle piattaforme rafforza la loro trasparenza: le aziende devono quindi informare gli utenti in caso di rimozione dei loro contenuti, limitazione della visibilità o interruzione della monetizzazione, spiegando loro i motivi. Gli utenti, possono impugnare le decisioni davanti all’azienda, in sede extragiudiziale e, infine, in tribunale.

Stop agli annunci mirati

Come anticipato, le piattaforme non possono più targetizzare le persone con annunci online basati su dati personali sensibili. Sui minori, inoltre, viene applicata un’ulteriore tutela: non è più possibile indirizzare loro “suggerimenti di contenuti” se non per età e posizione geografica. Questo vuol dire che un adolescente di 15 anni vedrà gli stessi post informativi e pubblicitari dei suoi coetanei che vivono nella sua stessa città, differenti però dai contenuti di un utente di 13 anni che vive altrove.

Meno segreti, più trasparenza

Ogni 6 mesi, infine, le Big Tech devono fornire alcune informazioni relative al personale che modera i contenuti, l’eventuale uso dell’intelligenza artificiale per rimuovere i post illegali e il relativo margine di errore.

Devono inoltre rendere pubblici i loro rapporti di valutazione e di audit sulle strategie messe in campo per limitare i “rischi gravi per la società”, comprese le minacce alla libertà di parola, alla salute pubblica e alla libertà delle elezioni.

In caso di inadempienza, la Commissione Europea può emettere sanzioni fino al 6% del fatturato globale annuo della piattaforma “colpevole”, arrivando anche a vietarne temporaneamente l’autorizzazione a operare all’interno del continente in casi di eccezionale gravità.

Leggi anche
Sonno
di Chiara Manetti 4 min lettura
Innovazione
di Luca De Biase 4 min lettura