Storie

Revenge Porn, Permesso Negato: «Telegram è problematico»

«Per la sua policy non risponde alle violazioni. Per questo è la piattaforma più utilizzata». Ne parlano Edel Beckman (criminologa clinica) e Noemi Tentori (esperta di sicurezza informatica) dell’associazione no profit
Da sinistra, Edel Beckman e Noemi Tentori di Permesso Negato
Da sinistra, Edel Beckman e Noemi Tentori di Permesso Negato
Tempo di lettura 12 min lettura
8 settembre 2023 Aggiornato alle 13:00

I reati di Non consensual intimate image abuse (Ncii), o Pornografia non consensuale, spesso identificata con il revenge porn, sono in aumento, in Italia e nel mondo. Ciò ha a che fare con il consenso e coinvolge diverse tipologie di persone, spesso donne ma non solo.

Diffusione di materiale destinato a rimanere privato, ricatti a scopo estorsivo, creazione di profili falsi per minacciare o danneggiare una persona, chat in cui si scambiano e commentano immagini e account di ragazze: questi sono solo alcuni esempi. Scarsi controlli online e una inesistente cultura del consenso rendono facile (e incontrollata) la creazione di questi gruppi e la diffusione di questi reati.

Secondo l’ultimo rapporto State of revenge, prodotto dall’associazione Permesso Negato, in Italia 14 milioni di utenti sono entrati in contatto con immagini di pornografia non consensuale, mentre i gruppi Telegram attivi per la condivisione di materiale erano 231. Allo stesso tempo, è difficile rintracciare gli autori di questi contenuti, perché nella maggior parte dei casi si nascondono dietro profili falsi.

La scarsa (o nulla) collaborazione di alcune piattaforme social e web è parte del problema. Per una nuova tipologia di reato servono nuove leggi: quelle esistenti, compresa la 612-ter del 2019, appaiono insufficienti rispetto alla grandezza e gravità della situazione.

L’associazione no profit Permesso Negato nasce nel 2019 proprio per supportare le vittime e contrastare i reati online legati alla diffusione di materiale privato. Il team di avvocate e avvocati, criminologhe e criminologi, esperte ed esperti di sicurezza e reputazione, psicologhe e psicologi fornisce supporto legale e psicologico, strumenti per difendersi e informazioni.

La Svolta ha parlato con Edel Beckman, criminologa clinica, e Noemi Tentori, esperta di sicurezza informatica, che operano nella cosiddetta “prima linea” e lavorano a stretto contatto con le vittime.

Quali persone si rivolgono a voi e di quali casi vi occupate maggiormente?

Beckman - Assistiamo migliaia di persone all’anno, senza limiti territoriali. Il fenomeno è molto eterogeneo per età, genere ed estrazione sociale: abbiamo supportato qualsiasi tipo di vittima, da minorenni, per cui veniamo contattate a volte anche dai genitori, fino a una persona di 75 anni. Veniamo contattate sia per rimuovere account e contenuti in maniera preventiva, sia quando la condivisione non consensuale è già avvenuta. Altre volte sono partner che ci contattano perché la fidanzata è minacciata da un ex. A volte ci contattano persone che non sanno o non sono sicure di essere vittime, ma vogliono capire meglio. Spesso terzi ci contattano “per conto” di amiche o conoscenti. Purtroppo in questo ultimo caso non possiamo agire se non è la persona direttamente coinvolta a presentarsi.

Lavoriamo con persone da tutto il mondo e nel nostro team parliamo italiano, inglese, spagnolo e svedese. La diversa legislazione in merito, da Paese a Paese a volte è un limite, tuttavia forniamo il supporto possibile a chiunque ci contatti. Cerchiamo sempre di porci come uno spazio sicuro dove condividere la propria storia: garantiamo la privacy, l’anonimato e non facciamo nulla senza il consenso della vittima.

Di che tipologia di contenuti si tratta di solito?

Beckman - Ci occupiamo di condivisione non consensuale di materiale intimo in tutte le sue declinazioni: revenge porn se c’è la finalità vendicativa dopo la fine di una relazione, sextortion, se vi è uno scopo di estorsione, oppure diffusione di materiale intimo allo scopo di danneggiare la vittima. Si tratta di una selezione rispetto alla quantità di reati che si verificano online: abbiamo scelto una nicchia specifica per essere certi di fornire supporto a 360 gradi a chi si rivolge a noi. Per tipi di reati diversi, per esempio relativi all’odio online, rimandiamo ad altro tipo di assistenza come la pagina Chi odia paga.

Nei casi di nostra competenza effettuiamo, sempre a titolo gratuito per la vittima, la rimozione di contenuti già pubblicati; la rimozione preventiva e la chiusura degli account che minacciano di divulgare o che l’hanno già fatto (9 volte su 10 sono dei fake). Forniamo anche assistenza a sex workers che vedono violati i loro contenuti digitali, come per esempio chi lavora su OnlyFans. I loro contenuti sono anche soggetti a copyright, per cui non possiamo aiutarle direttamente sul piano tecnico o legale, tuttavia quello che facciamo è indirizzarle altre azioni da intraprendere.

Nel caso di violazioni che coinvolgono altri reati (per esempio uno stupro) indirizziamo la vittima al supporto legale e psicologico e aiutiamo nell’acquisizione di prove. Nell’ultimo anno c’è stata un’impennata di casi di sextortion (ricatto o estorsione basato sulla minaccia di condividere materiale intimo della persona, ndr): oltre il 90% sono vittime maschili e ci scrivono perché sono stati minacciati.

Ultimamente si parla dell’esposizione incontrollata di minori e altri soggetti vulnerabili sui social, anche per ottenere visualizzazione e monetizzazioni: in che modo questo fa parte del vostro ambito di lavoro?

Beckman - Per i minori il nostro lavoro è più limitato: non possiamo effettuare la rimozione preventiva perché il materiale intimo in rete che ha come soggetto un minore non rientra nella condivisione non consensuale ma nella pedopornografia. Per agire ci serve sempre il consenso dei genitori, anche solo per il colloquio psicologico. Possiamo però fornire supporto legale anche ai minori: come per tutti gli altri casi, non si tratta di assistenza ma solo di fornire indicazioni su come fare denuncia e un feedback riguardo al tipo di reati coinvolti e a come tutelarsi.

Quando si tratta di esposizione di minori sui social, spesso i genitori condividono foto dei figli vestiti: questo non impedisce che siano comunque esposti. Instagram per esempio rimuove solo le immagini di bambini nudi, ma tutto il resto rimane e resta rischioso: in molti canali e siti frequentati da pedofili, non per forza gira materiale di nudo, ma vengono chieste e scambiate anche immagini di bambini vestiti. Per questo, puntiamo alla prevenzione: preferiamo consigliare ai genitori di evitare in toto la pubblicazione di foto dei loro figli o di farlo solo con alcune precauzioni, come un profilo privato.

Cos’è la rimozione preventiva e come si creano delle prove digitali?

Tentori - La rimozione preventiva è la tecnologia più importante che abbiamo e che utilizziamo. Non solo consente di eliminare il materiale già pubblicato, ma anche di evitare che lo stesso riappaia e che vengano caricati contenuti per la prima volta. Usiamo la rimozione preventiva soprattutto nei casi in cui una persona è stata minacciata della diffusione di materiale oppure ha il timore che possa succedere. Questa procedura si basa sulla creazione di un’impronta digitale (finger priting) del file, una stringa alfanumerica univoca che permette di tracciarlo e indicare ai siti di rimuoverlo.

Abbiamo iniziato a usare questa tecnologia per primi in Europa, estendendo un progetto pilota di Meta, perché ne abbiamo constatato l’effettiva necessità. Oggi oltre a Google e Facebook aderiscono alla rimozione preventiva anche Thread, Bumble, OnlyFans, Reddit e Pornhub. Per procedere alla rimozione preventiva è sufficiente andare sul sito internazionale stop.ncii e creare il proprio caso. La vittima può caricare da sé i contenuti che vuole proteggere. Il sito li memorizza solo il tempo di necessario a produrre l’impronta digitale e poi li elimina.

L’impronta viene poi condivisa con le piattaforme aderenti mettendole in grado di compiere 2 azioni. La prima: andare alla ricerca di quel determinato file (una foto, un video, una registrazione) nei loro spazi online, nell’ipotesi che esso sia già presente. La seconda: evitare che venga caricato. A ogni nuovo tentativo di caricamento è possibile per le piattaforme fare un confronto con il database e accettare il contenuto solo se non presente tra quelli segnalati. Al contrario, se il file è presente nel database dei segnalati, le piattaforme bloccano la pubblicazione. Una volta terminata la procedura online, la vittima può monitorare l’avanzamento del proprio caso. Utilizziamo questa metodologia per non entrare in contatto con il materiale intimo se non è necessario, e per tutelare la vittima che potrebbe non voler diffondere il materiale, o potrebbe vergognarsi nel condividerlo con terzi.

Altro strumento che proponiamo gratuitamente è il cautelamento forense: in sostanza l’acquisizione del materiale divulgato per costituire una prova. Tutte le prove acquisite tramite questo intervento non possono essere contraddette al processo: sono una serie di dati che garantiscono la veridicità. Sono incluse foto, registrazioni video; acquisizione forense (cioè, data e ora in cui viene acquisito un file); calcolo della firma digitale. Recentemente alcune sentenze hanno ritenuto prove valide anche gli screenshot.

Con quale velocità agite e che rapporto avete con le piattaforme web e social?

Tentori - Come teorizza Malcom Gladwell nel suo saggio The Tipping Point: How Little Things Can Make a Big Difference, quando si continua a diffondere materiale in internet si raggiunge un punto di non ritorno in cui il contenuto è talmente virale che diventa impossibile bloccare la sua circolazione. Il nostro obiettivo è intervenire, con ogni contenuto, prima del punto di non ritorno. Come “prima linea”, cioè chi ha i contatti con la vittima, lavoriamo dalla mattina presto alla sera tardi e la nostra helpline è molto attiva nel rispondere alle richieste al massimo entro un’ora. Alcune piattaforme online ci riconoscono come tracked flagger cioè come associazione attendibile e ufficiale. Per questo le nostre richieste vengono gestite in modo prioritario rispetto a quelle degli utenti individuali.

Abbiamo contatti diretti con le piattaforme, in particolare con Meta (per Facebook, Instagram e Whatsapp), con Google (per Google+, Gmail, Drive, Youtube) e con Mindjack, il più grande conglomerato di siti pornografia al mondo. Le segnalazioni che ricevono da noi vanno in massima priorità. Mindjack addirittura rimuove immediatamente qualsiasi contenuto da noi segnalato e, solo successivamente, controlla se si tratta di un eventuale errore. È importante dire che le piattaforme, come Facebook, non comunicano da dove proviene la segnalazione: questa è un’ulteriore garanzia di protezione che specifichiamo sempre alle vittime quando temono ripercussioni. Per le piattaforme che non rientrano nel circuito stop ncii, il presidente di Permesso Negato invia una richiesta, in qualità di rappresentante legale delle vittime, di rimozione dei contenuti. In generale riceviamo risposte in breve tempo e il materiale viene rimosso nel giro di poche ore.

Telegram resta una piattaforma problematica perché, per sua policy, non collabora e non risponde alle violazioni. Questo è il motivo per cui è la piattaforma più utilizzata nel creare gruppi di scambio di foto e video. La nostra attività è limitata a monitoraggio e segnalazione di questi gruppi. Stiamo portando avanti una ricerca relativa al funzionamento della divulgazione di materiale intimo (a volte pedopornografico e sempre accompagnato da linguaggio sessista e violento) su questi gruppi. La nostra ricerca vuole studiare l’andamento del fenomeno e le conseguenze dell’avere piattaforme che non sono interessate a tutelare le potenziali vittime.

Ad oggi che tutele ci sono, dal punto di legislativo, per le vitti‌me? State pensando a delle proposte per rendere più efficace questo aspetto?

Beckman - Sicuramente dobbiamo fare riferimento alla legge 612-ter del Codice Penale del 2019, all’interno del Codice rosso. Una legge molto nuova e che nasce dopo alcuni avvenimenti come il delitto di Tiziana Cantone. Seppure colmi un vuoto normativo, perché prima non c’era tutela per le vittime, sicuramente è fallace sotto diversi punti di vista. Il reato è strutturato in 2 ipotesi che prevedono il medesimo trattamento sanzionatorio per un ampio spettro di condotte: invio, cessione, pubblicazione, diffusione. Il discrimine è costituito dalla modalità con cui l’agente entra in possesso del materiale. Tolte le aggravanti (conoscenza della vittima, persone soggette a infermità, soggetti deboli) ci sono 2 casi: primo, chiunque è punibile dopo aver realizzato o sottratto il materiale; secondo, la persona è punibile dopo aver acquisito il materiale in altro modo.

Diversi punti portano conseguenze negative per le vittime. Per esempio, mentre nel primo caso è sufficiente che l’agente abbia realizzato o diffuso il materiale, nel secondo serve che l’acquisizione di materiale comporti un intenzionale danno alla vittima. L’intenzionalità è però molto difficile da dimostrare; eppure, i casi in cui si condivide materiale ricevuto sono oltre l’80% e avrebbero meritato una maggiore attenzione. La legge, poi, non menziona il tema fondamentale del consenso. Nel caso del sexting, le immagini non diventano di proprietà di chi le riceve.

Altro limite da citare è la velocità con cui si sviluppa la tecnologia rispetto alla legislatura: solo negli ultimi 3 anni si sono delineate pratiche nuove legate alla pornografia online (come deepfake, cum tribute) a cui la legge non è ancora arrivata. Infine, la rete crea una distanza che impedisce di riconoscere l’autore di reato ma anche di dare giusto riconoscimento alla violenza e alla vittima. Entrano in gioco fattori sociali e culturali come victim blaming e doppio standard. Basti pensare alla colpevolizzazione di chi subisce questi reati, a cui si rimprovera di aver inviato materiale intimo. Sappiamo che i fattori culturali influenzano il legislatore; è reato difficile e complesso che non può essere trattato secondo una sola casistica.

Come viene organizzata la vostra attività di sensibilizzazione e lavoro con enti, scuole e istituzioni?

Beckman - Crediamo che prevenire sia meglio che curare, per questo facciamo diverse campagne di sensibilizzazione: sui social video e approfondimenti, per esempio su come riconoscere un account fake, come impostare restrizioni al profilo, come generare una password sicura, come devono comportarsi i genitori con i minori. Produciamo post semplici e accessibili per arrivare a più persone possibile. Facciamo anche report e ricerche, supportiamo studenti nella scrittura della tesi e presentiamo le nostre ricerche a diversi convegni internazionali. Siamo intervenuti di recente nelle scuole parlando di Non consensual pornography (Ncp) e cyberbullismo. Puntiamo ad aumentare il lavoro nelle scuole: i minori iniziano da piccoli ad avere contatti con internet.

Vi avvalete dell’intelligenza artificiale o ne percepite gli eventuali pericoli?

Tentori - Molte piattaforme la utilizzano già per individuare le foto di nudo. Anche se noi non la impieghiamo direttamente, ne vediamo gli effetti soprattutto per il deepfake (la tecnica che sovrappone immagini reali a immagini generate artificialmente, ndr): il 90% dei deepfake presenti in rete riguardano immagini di nudità, sono casi di nudo e spesso si tratta di deep-porn, per creare immagini di pornografia non consensuale o revenge porn. Siamo coscienti che diventerà sempre più difficile riconoscere questo fenomeno e lo stiamo monitorando, oltre a far rimuovere questi contenuti quando li troviamo.

Leggi anche
Violenza
di Costanza Giannelli 5 min lettura
Diritti violati
di Costanza Giannelli 3 min lettura