AI: le pubblicità deepfake che manipolano i video delle persone reali

AI: le pubblicità deepfake che manipolano i video delle persone reali

 

Immaginati di aprire i social una mattina e vedere la tua faccia nella pubblicità di un prodotto per la disfunzione erettile o in un videomessaggio di propaganda politica, magari contrario a tutto ciò in cui credi. È quello che sta accadendo a un numero sempre più alto di persone, che hanno scoperto che i lorovideo condivisi sui social mediaerano statimodificati utilizzando tool diintelligenza artificialeche li aveva trasformati in qualcosa di completamente diverso. L’utilizzo diimmagini e video deepfake in ads fraudolentenon è una novità: il volto di celebrità comeTaylor SwifteTom Hanksnegli ultimi mesi è stato sfruttato per spammare integratori dietetici ingannevoli, piani dentistici e fantomatici iPhone in regalo. Già in ottobre MrBeast, uno degli YouTuber più seguiti, aveva scritto in unpost su X“molte persone stanno ricevendo questa mia pubblicità ditruffa deepfake… le piattaforme di social media sono pronte a gestire l’ascesa deideepfakeAI?Questo è un problema serio”. Anche Tom Hanksaveva messo in guardiasu un video che lo ritraeva promuovere prodotti per i denti. In questi mesi, però, le cose non sono migliorate, anzi. Ora questo tipo difurto d’identitàèsempre più diffuso tra le persone comuni, che hanno una presenza online limitata ma che, ha spiegato ilWashington Post, trovano i loro volti e le loro parole distorti dall’intelligenza artificiale per promuovere prodotti e idee spesso offensivi. “L’intelligenza artificiale ha rubato la mia immagine e ha creato una pubblicitàdeepfakein cui promuovevo pillole per la disfunzione erettile – ha spiegato suTikTokMichel Janse – Quindi in questa pubblicità ero io, nella mia camera da letto, nel mio vecchio appartamento di Austin, mentre indossavo i miei vestiti e parlavo della loro pillola”. Basta un video di pochi secondi e “grazie” a tool che utilizzano l’intelligenza artificiale (a esempio quelli prodotti da aziende comeHeyGeneEleven Labs)è possibile generare unaversione sintetica della voce di una persona reale, che viene poi sostituita all’audio di un video esistente. Non solo: per rendere il video manipolato ancora più credibile, le labbra di chi sta parlando vengono animate per seguire l’audio contraffatto. ”Se audio, video o immagini esistono pubblicamente, anche se solo per una manciata di secondi,possono essere facilmente clonati,alterati o addirittura fabbricatiper far sembrare che sia successo qualcosa di completamente unico”, ha scritto alWashington PostBen Colman, Ceo e co-fondatore diReality Defender, che aiuta aziende e Governi a rilevare ideepfake. Se creare questi video è semplicissimo, contrastarne la produzione e la diffusione non lo è altrettanto, e non solo per lamancanza di fondi, strumenti e preparazione in materia di criminalità informaticadi gran parte delle forze dell’ordine. Al momento, infatti,non esiste alcuna legge federale suideepfakee anche le proposte per regolarli (come ilPreventing Deepfakes of Intimate Images Act)sono in gran parte limitate alla diffusione non consensuale di immagini intime o pubblicità politiche. «Non sorprende che la prossima frontiera della tecnologia colpisca le donne»ha detto Danielle Citron, professoressa dellaUniversity of Virginia. Del resto, basta pensare ai deepfake di nudo (che secondo il rapportoThe State of Deepfakes 2019 Landscape, Threats, and Impactsono il 96% del totale):nel 99% dei casi, le vittime sono donne e ragazze.