C’è chi usa l’AI per “spogliare” le donne in foto
Sono noti come servizi diundressing. Vengono usati sufotografie di persone che, attraverso l’uso dell’intelligenza artificiale, vengono private dei vestiti che indossanoe mostrate nude. La creazione e diffusione di immagini intime non consensuali (Ncii) sintetiche, che riguarda principalmente soggetti femminili, è diventata un servizio sempre più richiesto, disponibile su applicazioni e siti web. SecondoBloomberg, che ha ripresoun rapportodella società di analisi dei social networkGraphika, dall’inizio dell’anno il numero di link che pubblicizzano app di questo genereè aumentato di oltre il 2.400% sui social media, tra cui X e Reddit.Solo a settembre 24 milioni di persone hanno visitato i sitiundressing. Come funzionano? Questi servizi usano l’AI per ricreare un’immagine a partire dall’originale, quella “vestita”, in modo che la persona in questione sembri nuda.Molti funzionano solosulle donne. Le immagini spesso sonoprese dai social media e distribuite senza il consenso o la consapevolezza del soggetto ritratto.«È possibile creare qualcosa che sembra davvero realistico – ha dichiarato Santiago Lakatos, analista diGraphika -Se li si prende in parola, i loro siti web dichiarano di avere più di 1.000 utenti al giorno». Per rendersene conto basta cercare il terminenudifysu Google. Il primo risultato della nostra ricerca recita: “Svesti qualsiasi ragazza con il nostroservizio AIgratuito.Scegli solo l’età, il tipo di corpo, la qualità e ottieni un risultato in pochi secondi. Rimuovi i vestiti da chiunque”. E ce ne sono tantissimi. C’è anche un sito che classifica “i migliori strumenti del 2023 per svestire qualsiasi ragazza”. In uno di questi ci sonoimmagini per agevolare il caricamento delle foto, che devono soddisfare determinati requisiti: “Evita abiti larghi e cappotti. I vestiti a pezzo unico vanno bene. Gli indumenti più stretti danno risultati migliori. [Deve esserci un] Buon contrasto tra i colori della pelle e dei vestiti. I capelli non devono nascondere troppo il corpo”. Secondo l’analisi diGraphikaintitolataA revealing picture, “Un’immagine rivelatrice”,i social network più popolari vengono utilizzatida molti di questi servizi di “svestizione” o “nudificazione”a scopo di marketing. Una delle applicazioni ha pagato per avere contenuti sponsorizzati su YouTube (di proprietà diGoogle), spiegaBloomberg. Un post scovato dall’agenzia di stampa su X per pubblicizzare una di queste app suggeriva ai clienti di creare immagini di nudo e poi inviarle ai soggetti spogliati digitalmente. In questo modoi fornitori di questi servizi li commercializzano come strumenti di molestia. A uno dei servizi che abbiamo trovato corrisponde un account verificato su X (ex Twitter) con più di 18.000 followers che colleziona una serie di commenti di utenti arrabbiati sotto un post perché: “Non funziona niente, si può provare solo se si paga!”. E c’è anche un canale Telegram. Alcuni servizi richiedonoun pagamento di 9,99 dollari al mese, altri sonogratuiti. Un portavoce di Google ha dichiarato aBloombergchel’azienda non consente annunci “con contenuti sessualmente espliciti”e che sta esaminando i contenuti in questione e “rimuovendo quelli che violano le nostre politiche”. Un portavoce di Reddit ha chiarito che “il sito proibisce qualsiasi condivisione non consensuale di materiale falso sessualmente esplicito” e che diversi domini sono stati bannati a seguito della ricerca. X non ha risposto a una richiesta di commento. Tutti questi servizi si inseriscono nel filone delladeepfake pornography,la tendenza allo sviluppo e alla distribuzione di pornografia non consensuale grazie ai progressi dell’intelligenza artificiale. Si tratta di un fenomeno diffuso da tempo, che prende di mira soprattuttoi personaggi pubblici, ma gli esperti di privacy sono sempre più preoccupati dal fatto che i progressi della tecnologia AI abbiano reso i software più facili ed efficaci. Esempre più usati da persone comuni su persone comuniche, nella maggior parte dei casi, non vengono mai a conoscenza di queste immagini. Analizzando uno di questi siti abbiamo scoperto che, tra le Faq, alla domanda “IlDeepnudeè legittimo?”, la risposta è sì, “negli Stati Uniti e in altri Paesi del mondo, anche se potrebbero esserci alcune eccezioni a causa di opinioni religiose. Comunque,è solo una tecnologia di foto ritocco basata sull’intelligenza artificiale, perché non può essere legittima?”.Deepnudeè legale? La questione, rispondono, “varia a seconda delle diverse giurisdizioni. Consigliamo vivamente di controllare le leggi della tua regione per garantire la conformità con la legislazione applicabile prima di utilizzare o distribuire tali contenuti. Ma in generale, ildeepnudeè legale negli Stati Uniti, in Europa e in gran parte del mondo”. Negli Stati Uniti, non esiste una legge federale che vieti la creazione di pornografiadeepfake, anche se il Governo vieta la generazione di questo tipo di immagini di minori. A novembre, riportaBloomberg, in quello che è stato il primo procedimento giudiziario di questo tipo ai sensi di questa legge, uno psichiatra infantile della Carolina del Nord è stato condannato a 40 anni di carcere per aver utilizzato app simili su foto dei suoi pazienti. In Italianon esiste una legge ad hoc che tuteli le vittime dalla diffusione non consensuale di contenuti sessualmente espliciti realizzati artificialmente: il reato direvenge porn, introdotto dal Codice Rosso e disciplinato dall’articolo 612 ter del Codice Penale, punisce chi diffonde illecitamente immagini o video sessualmente espliciti senza il consenso delle persone rappresentate, non fa riferimento a contenuti artificiali. Le vittime dideepfakepornografici possono essere tutelate attraverso il reato di diffamazione aggravata, o di estorsione, oppure di furto d’identità. Per le vittime minorenni, invece, esiste un articolo (il 600 quater 1 del Codice Penale) che regola ilreato di pornografia virtuale.