Diritti

C’è chi usa l’AI per “spogliare” le donne in foto

Secondo la società di analisi dei social network Graphika, a settembre 24 milioni di utenti hanno visitato siti web di undressing che manipolano immagini esistenti di persone reali per farle apparire nude
Credit: Skylar Kang
Chiara Manetti
Chiara Manetti giornalista
Tempo di lettura 5 min lettura
14 dicembre 2023 Aggiornato alle 20:00

Sono noti come servizi di undressing. Vengono usati su fotografie di persone che, attraverso l’uso dell’intelligenza artificiale, vengono private dei vestiti che indossano e mostrate nude. La creazione e diffusione di immagini intime non consensuali (Ncii) sintetiche, che riguarda principalmente soggetti femminili, è diventata un servizio sempre più richiesto, disponibile su applicazioni e siti web. Secondo Bloomberg, che ha ripreso un rapporto della società di analisi dei social network Graphika, dall’inizio dell’anno il numero di link che pubblicizzano app di questo genere è aumentato di oltre il 2.400% sui social media, tra cui X e Reddit. Solo a settembre 24 milioni di persone hanno visitato i siti undressing.

Come funzionano? Questi servizi usano l’AI per ricreare un’immagine a partire dall’originale, quella “vestita”, in modo che la persona in questione sembri nuda. Molti funzionano solo sulle donne. Le immagini spesso sono prese dai social media e distribuite senza il consenso o la consapevolezza del soggetto ritratto. «È possibile creare qualcosa che sembra davvero realistico - ha dichiarato Santiago Lakatos, analista di Graphika - Se li si prende in parola, i loro siti web dichiarano di avere più di 1.000 utenti al giorno».

Per rendersene conto basta cercare il termine nudify su Google. Il primo risultato della nostra ricerca recita: “Svesti qualsiasi ragazza con il nostro servizio AI gratuito. Scegli solo l’età, il tipo di corpo, la qualità e ottieni un risultato in pochi secondi. Rimuovi i vestiti da chiunque”. E ce ne sono tantissimi. C’è anche un sito che classifica “i migliori strumenti del 2023 per svestire qualsiasi ragazza”. In uno di questi ci sono immagini per agevolare il caricamento delle foto, che devono soddisfare determinati requisiti: “Evita abiti larghi e cappotti. I vestiti a pezzo unico vanno bene. Gli indumenti più stretti danno risultati migliori. [Deve esserci un] Buon contrasto tra i colori della pelle e dei vestiti. I capelli non devono nascondere troppo il corpo”.

Secondo l’analisi di Graphika intitolata A revealing picture, “Un’immagine rivelatrice”, i social network più popolari vengono utilizzati da molti di questi servizi di “svestizione” o “nudificazione” a scopo di marketing. Una delle applicazioni ha pagato per avere contenuti sponsorizzati su YouTube (di proprietà di Google), spiega Bloomberg. Un post scovato dall’agenzia di stampa su X per pubblicizzare una di queste app suggeriva ai clienti di creare immagini di nudo e poi inviarle ai soggetti spogliati digitalmente. In questo modo i fornitori di questi servizi li commercializzano come strumenti di molestia.

A uno dei servizi che abbiamo trovato corrisponde un account verificato su X (ex Twitter) con più di 18.000 followers che colleziona una serie di commenti di utenti arrabbiati sotto un post perché: “Non funziona niente, si può provare solo se si paga!”. E c’è anche un canale Telegram. Alcuni servizi richiedono un pagamento di 9,99 dollari al mese, altri sono gratuiti.

Un portavoce di Google ha dichiarato a Bloomberg che l’azienda non consente annunci “con contenuti sessualmente espliciti” e che sta esaminando i contenuti in questione e “rimuovendo quelli che violano le nostre politiche”. Un portavoce di Reddit ha chiarito che “il sito proibisce qualsiasi condivisione non consensuale di materiale falso sessualmente esplicito” e che diversi domini sono stati bannati a seguito della ricerca. X non ha risposto a una richiesta di commento.

Tutti questi servizi si inseriscono nel filone della deepfake pornography, la tendenza allo sviluppo e alla distribuzione di pornografia non consensuale grazie ai progressi dell’intelligenza artificiale. Si tratta di un fenomeno diffuso da tempo, che prende di mira soprattutto i personaggi pubblici, ma gli esperti di privacy sono sempre più preoccupati dal fatto che i progressi della tecnologia AI abbiano reso i software più facili ed efficaci. E sempre più usati da persone comuni su persone comuni che, nella maggior parte dei casi, non vengono mai a conoscenza di queste immagini.

Analizzando uno di questi siti abbiamo scoperto che, tra le Faq, alla domanda “Il Deepnude è legittimo?”, la risposta è sì, “negli Stati Uniti e in altri Paesi del mondo, anche se potrebbero esserci alcune eccezioni a causa di opinioni religiose. Comunque, è solo una tecnologia di foto ritocco basata sull’intelligenza artificiale, perché non può essere legittima?”. Deepnude è legale? La questione, rispondono, “varia a seconda delle diverse giurisdizioni. Consigliamo vivamente di controllare le leggi della tua regione per garantire la conformità con la legislazione applicabile prima di utilizzare o distribuire tali contenuti. Ma in generale, il deepnude è legale negli Stati Uniti, in Europa e in gran parte del mondo”.

Negli Stati Uniti, non esiste una legge federale che vieti la creazione di pornografia deepfake, anche se il Governo vieta la generazione di questo tipo di immagini di minori. A novembre, riporta Bloomberg, in quello che è stato il primo procedimento giudiziario di questo tipo ai sensi di questa legge, uno psichiatra infantile della Carolina del Nord è stato condannato a 40 anni di carcere per aver utilizzato app simili su foto dei suoi pazienti.

In Italia non esiste una legge ad hoc che tuteli le vittime dalla diffusione non consensuale di contenuti sessualmente espliciti realizzati artificialmente: il reato di revenge porn, introdotto dal Codice Rosso e disciplinato dall’articolo 612 ter del Codice Penale, punisce chi diffonde illecitamente immagini o video sessualmente espliciti senza il consenso delle persone rappresentate, non fa riferimento a contenuti artificiali. Le vittime di deepfake pornografici possono essere tutelate attraverso il reato di diffamazione aggravata, o di estorsione, oppure di furto d’identità. Per le vittime minorenni, invece, esiste un articolo (il 600 quater 1 del Codice Penale) che regola il reato di pornografia virtuale.

Leggi anche
Intelligenza artificiale
di Luca De Biase 4 min lettura
Inaugurazione a Gijon, in Spagna, presso il Centro d'arte del lavoro, di una mostra immersiva sul mondo di Van Gogh, dove grazie all'intelligenza artificiale i dipinti diventano tridimensionali.
Discriminazioni
di Chiara Manetti 4 min lettura