Futuro

AI: le pubblicità deepfake che manipolano i video delle persone reali

In passato, voci e volti di celebrità come Taylor Swift e Tom Hanks sono stati utilizzati per spammare annunci. Oggi questa tipologia di furto di identità digitale colpisce sempre più i cittadini comuni, soprattutto le donne
Credit: Mike Bird  
Costanza Giannelli
Costanza Giannelli giornalista
Tempo di lettura 4 min lettura
4 aprile 2024 Aggiornato alle 09:00

Immaginati di aprire i social una mattina e vedere la tua faccia nella pubblicità di un prodotto per la disfunzione erettile o in un videomessaggio di propaganda politica, magari contrario a tutto ciò in cui credi.

È quello che sta accadendo a un numero sempre più alto di persone, che hanno scoperto che i loro video condivisi sui social media erano stati modificati utilizzando tool di intelligenza artificiale che li aveva trasformati in qualcosa di completamente diverso.

L’utilizzo di immagini e video deepfake in ads fraudolente non è una novità: il volto di celebrità come Taylor Swift e Tom Hanks negli ultimi mesi è stato sfruttato per spammare integratori dietetici ingannevoli, piani dentistici e fantomatici iPhone in regalo.

Già in ottobre MrBeast, uno degli YouTuber più seguiti, aveva scritto in un post su X “molte persone stanno ricevendo questa mia pubblicità di truffa deepfake… le piattaforme di social media sono pronte a gestire l’ascesa dei deepfake AI? Questo è un problema serio”. Anche Tom Hanks aveva messo in guardia su un video che lo ritraeva promuovere prodotti per i denti. In questi mesi, però, le cose non sono migliorate, anzi.

Ora questo tipo di furto d’identità è sempre più diffuso tra le persone comuni, che hanno una presenza online limitata ma che, ha spiegato il Washington Post, trovano i loro volti e le loro parole distorti dall’intelligenza artificiale per promuovere prodotti e idee spesso offensivi.

“L’intelligenza artificiale ha rubato la mia immagine e ha creato una pubblicità deepfake in cui promuovevo pillole per la disfunzione erettile - ha spiegato su TikTok Michel Janse - Quindi in questa pubblicità ero io, nella mia camera da letto, nel mio vecchio appartamento di Austin, mentre indossavo i miei vestiti e parlavo della loro pillola”.

Basta un video di pochi secondi e “grazie” a tool che utilizzano l’intelligenza artificiale (a esempio quelli prodotti da aziende come HeyGen e Eleven Labs) è possibile generare una versione sintetica della voce di una persona reale, che viene poi sostituita all’audio di un video esistente. Non solo: per rendere il video manipolato ancora più credibile, le labbra di chi sta parlando vengono animate per seguire l’audio contraffatto.

Se audio, video o immagini esistono pubblicamente, anche se solo per una manciata di secondi, possono essere facilmente clonati, alterati o addirittura fabbricati per far sembrare che sia successo qualcosa di completamente unico”, ha scritto al Washington Post Ben Colman, Ceo e co-fondatore di Reality Defender, che aiuta aziende e Governi a rilevare i deepfake.

Se creare questi video è semplicissimo, contrastarne la produzione e la diffusione non lo è altrettanto, e non solo per la mancanza di fondi, strumenti e preparazione in materia di criminalità informatica di gran parte delle forze dell’ordine. Al momento, infatti, non esiste alcuna legge federale sui deepfake e anche le proposte per regolarli (come il Preventing Deepfakes of Intimate Images Act) sono in gran parte limitate alla diffusione non consensuale di immagini intime o pubblicità politiche.

«Non sorprende che la prossima frontiera della tecnologia colpisca le donne» ha detto Danielle Citron, professoressa della University of Virginia. Del resto, basta pensare ai deepfake di nudo (che secondo il rapporto The State of Deepfakes 2019 Landscape, Threats, and Impact sono il 96% del totale): nel 99% dei casi, le vittime sono donne e ragazze.

Leggi anche
Thisisengineering  
Intelligenza artificiale
di Ilaria Marciano 3 min lettura
AI
di Luca De Biase 4 min lettura