Futuro

L’AI potrebbe rimuovere le prove dei crimini di guerra

Secondo la Bbc, gli algoritmi di moderazione dei contenuti dei social potrebbero eliminare foto o video che documentano violazioni di diritti umani. Informazioni che, spesso, non passano dai media ufficiali
Credit: Marko Brečić
Tempo di lettura 5 min lettura
8 giugno 2023 Aggiornato alle 11:00

L’intelligenza artificiale viene sempre più utilizzata per rimuovere dai social media contenuti offensivi o capaci di turbare la sensibilità degli utenti. In seguito alle aspre critiche dovute alla circolazione passata di contenuti violenti, sessualmente espliciti o che coinvolgevano minori, oggi piattaforme come Meta e YouTube sono diventare particolarmente conservatrici.

Questo crea non pochi problemi a chi lavora con le arti visuali, ad attivisti e attiviste e, secondo quanto riportato dalla Bbc, anche a chi fa informazione dalle zone di guerra, denunciando potenziali violazioni di diritti umani. Anche se le piattaforme in questione dichiarano di avere messo in atto meccanismi che non bannano contenuti di utilità pubblica, in realtà gli algoritmi addestrati per eliminare foto e video di scene violente non sono in grado di riconoscere scene che documentano crimini di guerra o altre violazioni a danno di civili.

Il Bbc Global Disinformation Team ha provato una di queste intelligenze artificiali. Una volta caricato il video o la foto, la macchina inizia la scansione delle immagini per individuare elementi chiave come sangue, armi, cadaveri o nudità e poi assegna un punteggio che va da 0 a 1. Più è alto il punteggio, più il computer è sicuro di aver individuato correttamente le immagini incriminate e quindi è quasi sicuro che il video verrà cancellato automaticamente senza passare da un controllo umano.

È quello che è successo con i contenuti del fotografo Ihor Zakharenko, che dall’inizio del conflitto in Ucraina ha lasciato il suo lavoro come fotografo di viaggi per dedicarsi a documentare i crimini contro i civili compiuti dall’esercito russo. La sua è una vera e propria missione. “Il mondo deve sapere” dice, raccontando perché per lui è così importante diffondere informazioni che contrastino la campagna propagandistica del Cremlino. I suoi video caricati su Facebook e Instagram, che secondo le regole di Meta sarebbero dovuti restare online con il blocco agli utenti minorenni, sono stati eliminati dopo pochi minuti. A nulla sono serviti i ricorsi e le richieste di riesamina inviate all’azienda, facendo presente che si trattava di immagini che documentavano violazioni di diritti umani.

La divulgazione di immagini e video di abusi e violenze via social network, seppur provenienti da zone di guerra, potrebbe sembrare di cattivo gusto o un inutile “voyerismo”, ma in realtà è un pezzo molto importante del contrasto ai crimini di guerra. Questo tipo di contenuti, che spesso vengono creati da persone che vivono in mezzo al conflitto, non sempre trovano spazio nei canali di informazione ufficiale e, attraverso i social, possono raggiungere un maggior numero di persone. È un tipo di informazione fondamentale, soprattutto nel caso di conflitti dimenticati dai media tradizionali, come quello nel Tigrai.

La rimozione dei contenuti, però, non è un problema solo perché ne preclude l’accesso agli utenti, ma soprattutto perché la cancellazione è permanente. Le piattaforme, infatti, non creano un archivio dei video o delle immagini rimosse, eliminandole per sempre. YouTube si è difesa relativamente a questo punto sostenendo che i content creator dovrebbero adottare delle best practice per salvaguardare i propri file, eventualmente salvandoli su cloud o hardware: ma non sempre è facile se non si hanno risorse per pagare uno spazio di archiviazione o nel caos di una zona di guerra, dove dispositivi fisici possono essere facilmente distrutti con la conseguente perdita definitiva dei documenti.

Questo è un fatto grave, perché la disponibilità di queste immagini è preziosissima per poter perseguire le violazioni dei diritti umani e gli attacchi sui civili. A livello di diritto internazionale è molto difficile provare che sono stati commessi crimini di guerra, dunque ogni prova, per quanto piccola o apparentemente insignificante, è fondamentale.

Anche un solo video in meno può far perdere informazioni cruciali. “Ricostruire i crimini di guerra è come fare un puzzle” afferma Olga Robinson della Bbc. Un unico pezzo mancante inficia tutta la visione d’insieme.

Alcune organizzazioni, come la berlinese Mnemonic, hanno sviluppato dei programmi che consentono di riconoscere e scaricare i contenuti prima che vengano rimossi, ma il numero di video e immagini che riescono a salvare è naturalmente molto inferiore a quello totale.

La sfida per il futuro, e per le piattaforme come Meta e YouTube, sarà quindi innanzitutto quella di garantire archivi che consentano di conservare i contenuti anche dopo che non sono stati resi più disponibili agli utenti. Questo, naturalmente, nell’attesa di poter sviluppare algoritmi di intelligenza artificiale più sofisticati, in grado di fare scelte calibrate e “consapevoli”, per quanto questo termine possa applicarsi al pensiero di una macchina.

Leggi anche
Intelligenza artificiale
di Antonio Pellegrino 3 min lettura
salute
di Valeria Pantani 3 min lettura