Elezioni: l’intelligenza artificiale può comprometterle?
Il2024sarà l’anno delle elezioni per ben76 Paesi. Oltre alleelezioni europee, si voterà anche in 8 dei Paesi più popolosi al mondo: Bangladesh, India, Brasile, Messico, Indonesia, Pakistan, Stati Uniti e Russia. A dare il via alle danze è statoTaiwanil 13 gennaio, chiamato a eleggere unnuovo Presidente, mentre a chiudere saranno gliStati Uniti. Conti alla mano, nel complesso andrà alle urneil 51% della popolazione mondiale. In questo scenario una domanda sorge (quasi) spontanea:che ruolo giocherà l’intelligenza artificiale? OpenAI, l’azienda fondata daElon Muskche opera nel settore dell’intelligenza artificiale, cerca di placare i timori riguardanti l’influenza che questopotentissimo strumentopotrebbe avere sui risultati elettorali garantendotrasparenza,informazioni accurateeprevenzione contro l’utilizzo improprio dell’AI. «Ecco come ci stiamo preparando per le elezioni mondiali del 2024: lavorare per prevenire gli abusi, compresi ideep fakeingannevoli; fornire trasparenza sui contenuti generati dall’intelligenza artificiale; migliorare l’accesso a informazioni di voto autorevoli» fa sapere lasocietà madre diChatGPTtramiteX. Disinformazione e misinformazione ai tempi dell’AI Secondo ilGlobal Risk Perception Survey 2023-2024,disinformazioneemisinformazione(ossia la diffusione di un’informazione fuorviante, imprecisa o falsa senza l’esplicita intenzione di ingannare), rappresentano un pericolo concreto esonoalimentate anche da un sempre più facile accesso ai sistemi di intelligenza artificiale. Di quali pericoli stiamo parlando? Come annunciato daOpenAI, un’imboscata all’elettore può essere tesa dai cosiddetti “deep fake fuorvianti”, molto difficili da riconoscere. Si tratta infatti di una tecnica avanzata di sintesi di immagini umane basata sull’AIche sfrutta la tecnologia di apprendimento automatico. In particolare, questo processo coinvolgela combinazione e la sovrapposizione di immagini e video esistenti con materiale originale, utilizzando algoritmi dideep learning, una branca dell’intelligenza artificiale, i cui algoritmi sono impiegati persostituire i volti nei contenuti video e digitali,creando così versioni di immagini o video false ma estremamente realistiche. In questa direzione, una delle misure adottate dall’azienda è statol’aumento di sistemi di sicurezzaper fare in modo cheDell-E(lo strumento firmatoOpenAIper generare immagini)rifiuti le richieste di generazione di immagini di persone reali, compresi i candidati politici. Ancora,OpenAIsta lavorando pergarantire che il suochatbotforniscainformazioni precisee provenienti solo dai notiziari in tempo reale in tutto il mondo, indirizzando anche gli elettori verso siti web ufficiali di voto per ulteriori dettagli, promuovendo dunque lapartecipazione informataal processo democratico. Social media e influenza del sentiment L’influenza dell’AI sulle elezioni ha generato undibattito particolarmente intensosoprattutto negli Stati Uniti, dove aziende ed enti governativihannomonitorato le conseguenze dell’utilizzo dell’intelligenza artificiale neisocial media. In quest’ottica, ilMicrosoft Threat Abalysis Centerha pubblicato a settembre unreportche ha messo in luce la potenziale capacità dei prodotti generati dall’AI diplasmare ilsentimentdegli elettorisoprattutto su alcuni temi chiave in grado di far pendere l’ago della bilancia elettorale da una parte o dall’altra. Ma la stessa intelligenza artificiale sarà impiegata – così dichiarano siaOpenAIcheMicrosoft– perscovare i suoi stessi prodotti creati ad arte per le elezioni. Dunque, se disinformazione efake news(soprattutto in tempo di elezioni) non sono di certo una novità, il pericolo, con l’avvento dell’AI, sembra amplificato.