Bambini

Abusi su minori: aumentano le immagini create con l’Intelligenza Artificiale

Anche se al momento non è la forma di abuso online più diffusa, secondo il rapporto di WeProtect Global Alliance, che mette in luce le minacce che i bambini affrontano in rete, non bisogna abbassare la guardia
Credit: Daniel Clay 
Alessia Ferri
Alessia Ferri giornalista
Tempo di lettura 5 min lettura
28 ottobre 2023 Aggiornato alle 17:00

Dal 2019 sono aumentate dell’87% le segnalazioni di materiale di abusi sessuali sui bambini in rete, che oggi superano i 32 milioni a livello globale.

A lanciare l’allarme è WeProtect Global Alliance, tramite il suo ultimo rapporto Global Threat Assessment, che ha indagato l’universo della violenza online sui minori.

Le forme che assumono gli abusi sono diverse e tra queste, a destare particolare preoccupazione, sono quelle legate all’intelligenza artificiale, tecnologia esplosa in modo significativo nell’ultimo anno, con un potenziale enorme da spendere ma, soprattutto, ancora ricca di terreni inesplorati, falle e pochissimi controlli.

Caratteristiche che si tramutano in terreno fertile per i predatori sessuali, soprattutto di minori, che in pochi semplici click sono in grado di creare materiale pedopornografico, spesso senza alcun ostacolo.

L’organizzazione internazionale Thorn ha rilevato che al momento meno dell’1% del materiale di abuso sessuale infantile condiviso in un campione di autori di reati è costituito da immagini fotorealistiche generate al computer di abusi sessuali sui bambini. Tuttavia, anche se si tratta di una percentuale ancora minima, dall’inizio del 2023 continua ad aumentare il numero di pedofili che si avvale dell’Intelligenza Artificiale e questo fa purtroppo temere che sia solo l’inizio di una salita che, con il passare del tempo, difficilmente diminuirà la sua corsa.

Già alcuni mesi fa la BBC aveva svelato che molti pedofili si stavano affidando a Stable Diffusion per generare immagini fotorealistiche da diffondere in rete. Il software crea immagini in base alle descrizioni fornite dagli utenti, ma a differenza di Midjourney e altri competitor, grazie alla natura open source del programma riesce a bypassare le restrizioni sui contenuti sessuali normalmente previste.

Nonostante, infatti, i programmi di AI più noti siano dotati di sistemi di controllo, esiste un mercato parallelo che sfugge a essi e che risulta molto difficile, al momento, arginare.

Per tentare di farlo l’Australia, prima a livello globale, ha introdotto misure che impongono alle grandi aziende tech di adottare provvedimenti per garantire che i prodotti di intelligenza artificiale non possano essere utilizzati per generare immagini e video falsi di abusi sessuali infantili.

Se l’intelligenza artificiale è lo strumento che, in prospettiva preoccupa di più, nel presente sono molti altri i luoghi virtuali in cui gli abusi su minori si perpetuano.

Dal 2020 al 2022 il report ha rilevato un aumento del 360% delle immagini sessuali autogenerate di bambini di 7-10 anni ma non meno pericolose sono le piattaforme di social gaming, ampiamente frequentate dai minori.

Lì, dove bambini e adolescenti dovrebbero solo divertirsi e chiacchierare di giochi e personaggi fantastici, le conversazioni rischiano di degenerare in situazioni di adescamento in un tempo medio di 45 minuti ma che possono verificarsi anche in soli 19 secondi. Una tempistica lampo facilitata da ambienti sociali caratterizzati da mescolanza tra adulti e minori, da uno scambio di regali virtuali e da un sistema di classifiche online pubbliche che aumenta significativamente la probabilità che due persone sconosciute entrino in contatto.

Quando ciò avviene solitamente lo schema è sempre lo stesso: i predatori dopo aver stabilito un rapporto di fiducia con i minori li manipolano, inducendoli a condividere con loro immagini e video a sfondo sessuale. Il passo successivo spesso, soprattutto se le vittime sono ragazzi tra i 15 e i 17 anni, è l’estorsione sessuale a scopo di lucro, come svela la ricerca, passate da 139 segnalazioni nel 2021 a oltre 10.000 nel 2022. Il più delle volte gli adescatori si fingono ragazze e si rivolgono prevalentemente ai giovani attraverso i social media. Giovani che sotto ricatto non sempre riescono a reggere, e a volte finiscono per compiere su di sé azioni di autolesionismo che, nella più tragica delle situazione, possono condurre alla morte.

Dal report è emerso anche che le piattaforme private sono il luogo in cui si verifica la maggior parte delle molestie e che spesso, esattamente come nella realtà, l’abusante non è una figura sconosciuta ma una persona della quale il bambino si fida.

Chiunque è a rischio di finire nella rete ma in particolare le minoranze vulnerabili e i gruppi emarginati, sia a livello sessuale, sia di etnia o disabilità.

Per invertire la tendenza e fare in modo che sempre meno bambini subiscano abusi online è necessario l’impegno di tutte le parti interessate, ovvero governi, fornitori di servizi online e organizzazioni della società civile, che dovrebbero focalizzarsi su alcuni punti fondamentali, a partire dalla prevenzione, con l’investimento in interventi mirati a coloro che hanno o rischiano di commettere o subire abusi, senza limitarsi a rispondere al problema dopo che l’abuso è avvenuto.

Fondamentale anche progettare interventi che sensibilizzino i bambini, facilitando l’identificazione degli abusi. E ancora, impedire che gli autori dei reati sfruttino scappatoie legali, emanare norme coerenti a livello globale e implementare approcci innovativi alla progettazione tecnologica che diano priorità alla sicurezza degli utenti fin dall’inizio e non a posteriori.

Leggi anche
AI
di Riccardo Carlino 5 min lettura
AI
di Luca De Biase 5 min lettura