AI: come viene utilizzata per ingannarti

AI: come viene utilizzata per ingannarti

 

Il Presidente russoVladimir Putin in manette,Papa Francesco che indossa un improbabile piumino bianco da trappere l’ex Presidente degli Stati UnitiDonald Trump intento a pregaresono solo alcune delle più famoseimmaginifakediffuse online nel corso dell’ultimo anno. Immagini e video talmente realistici dasembrare veri. Tuttavia,se fino a ora riconoscerle poteva essere abbastanza semplice- pensiamo alle dita delle mani in più, come nella stessa “foto” di Trump, oppure alla presenza di errori concettuali o numerici- oggi l’intelligenza artificiale e i suoi creatori sonosempre più precisi e rendono estremamente difficile stabilire la veridicità di un’immagine. Il Primo Ministro britannicoRishi Sunakè una delle ultime vittime dell’AI. In un video diffuso sulle principali piattaforme social un giornalista espone unabreaking news: il Primo Ministro avrebbe per mesi ottenuto guadagni stratosferici da un progetto pensato per i cittadini al fine di contrastare l’erosione dei risparmi dovuta all’inflazione. Ed eccolo lì, subito dopo, Sunak che presenta questa nuova applicazione elaborata dal magnate Elon Musk promettendo agli utenti, con un investimento di sole 200 sterline, un guadagno di più di 22 mila sterline in un mese. Un annuncio costato ai suoi creatori solo tra l’8 dicembre 2023 e l’8 gennaio 2024 quasi13 mila sterline, secondo ilrapporto diFerimore Harper Comunications, e che avrebbe raggiuntooltre 400.000 persone con circa 143 annunci. Dietro a tutti questi video sembrerebbe esserciQuantum AIunapiattaforma truffache spinge gli utenti a investire non permettendogli poi più di ritirarsi e riacquisire indietro il proprio denaro. Se da anni si combatte contro chi su Internet aggancia i soggetti più disparati facendo leva sulle fragilità o sui momenti di difficoltà delle persone con scopi illeciti, l’AI pone la questione su un nuovo piano. L’introduzione di immagini e video di personaggi appartenenti almondo politico, imprenditoriale o dello spettacolo apre, difatti, il dibattito sulladiffamazione, oltre arendere le truffe sempre più credibili e difficili da riconoscere. Ma come possiamo mettere un freno a tutto questo? È proprio ciò su cui si interrogano i ricercatori dell’AI e le principali aziende del settore. MicrosofteIntelhanno presentato e continuano a lavorare allarealizzazione di software in grado di riconoscere immagini, video e testi realizzati artificialmente. Al tempo stesso gli sviluppatori dell’AI studiano unmodo per garantire unariconoscibilitàal 100% dei propri prodotti. Eppure, un sistema completamente affidabile non è ancora stato trovato. Uno studio elaborato daZeyu Lu, scienziato informatico dell’Università Jiao Tong di Shangai, evidenzia comeanche il programma più performante in questo campo verrebbe ingannato nel 13% dei casi analizzati, indicando come “vere” immagini in realtà realizzate tramite l’AI. Lo scorso dicembre a New Orleans si è tenuta laconferenza sui sistemi neurali dell’elaborazione dell’informazione,NeurIPS, dove sono state presentatediverse opzioni per garantire l’identificazione delle immagini digitali. Ricercatori e università hannoelaborato software e sistemi per applicare, proprio come avviene con la carta,una filigrana con l’obiettivo di tracciare tutto ciò che viene creato dall’AI. Unprimo sistema per l’analisi di testisi basa sullacreazione di blocchi di parole che vengono divise in due gruppi: uno “verde” per quelle parole conosciute dal sistema e un gruppo “rosso” per tutte le altre. A questo punto il software, in base a calcoli statistici e di probabilità,confronta i due blocchi e ne analizza la veridicità. Un sistema che, tuttavia, sembrerebbe esseremaggiormente efficace con testi lunghi ed elaborati. Un altro progetto prevedel’applicazione della filigrana tramite dei pixel non visibili a occhio nudo, ma intercettabili dalle macchine. Anche in questo caso però i falsificatori di immagini potrebbero riuscire a bypassare il software semplicementelavorando sull’immagine, per esempio ruotandola o sfocandola. Ancora, nelmodello nominatoTree-Ring,la tela digitale verrebbe riempita prima da un rumore e poi dall’immagine permettendo così di inserire nel rumore la filigrana distintiva. Secondo un team di esperti dell’Università di Harvard, anche questo modellopotrebbe essere superato aggiungendo un nuovo rumore all’immagine. Nonostante tutto, dunque,una risposta definitiva all’utilizzo impropriodi immagini e parole non è stata ancora trovata. Le immagini digitali diventano sempre più accuraterendendo il lavoro per truffatori e falsificatori ancora più semplice. Fondamentale è prestare attenzione e diversificare la fonte delle notizie per evitare di incappare in malintenzionati pronti a trarci in inganno.