Futuro

Elezioni: l’intelligenza artificiale può comprometterle?

Secondo uno studio del Global Risk Perception Survey 2023-2024 la disinformazione è alimentata anche dall’utilizzo dell’AI
Tempo di lettura 4 min lettura
23 gennaio 2024 Aggiornato alle 13:00

Il 2024 sarà l’anno delle elezioni per ben 76 Paesi. Oltre alle elezioni europee, si voterà anche in 8 dei Paesi più popolosi al mondo: Bangladesh, India, Brasile, Messico, Indonesia, Pakistan, Stati Uniti e Russia.

A dare il via alle danze è stato Taiwan il 13 gennaio, chiamato a eleggere un nuovo Presidente, mentre a chiudere saranno gli Stati Uniti.

Conti alla mano, nel complesso andrà alle urne il 51% della popolazione mondiale. In questo scenario una domanda sorge (quasi) spontanea: che ruolo giocherà l’intelligenza artificiale?

OpenAI, l’azienda fondata da Elon Musk che opera nel settore dell’intelligenza artificiale, cerca di placare i timori riguardanti l’influenza che questo potentissimo strumento potrebbe avere sui risultati elettorali garantendo trasparenza, informazioni accurate e prevenzione contro l’utilizzo improprio dell’AI.

«Ecco come ci stiamo preparando per le elezioni mondiali del 2024: lavorare per prevenire gli abusi, compresi i deep fake ingannevoli; fornire trasparenza sui contenuti generati dall’intelligenza artificiale; migliorare l’accesso a informazioni di voto autorevoli» fa sapere la società madre di ChatGPT tramite X.

Disinformazione e misinformazione ai tempi dell’AI

Secondo il Global Risk Perception Survey 2023-2024, disinformazione e misinformazione (ossia la diffusione di un’informazione fuorviante, imprecisa o falsa senza l’esplicita intenzione di ingannare), rappresentano un pericolo concreto e sono alimentate anche da un sempre più facile accesso ai sistemi di intelligenza artificiale.

Di quali pericoli stiamo parlando?

Come annunciato da OpenAI, un’imboscata all’elettore può essere tesa dai cosiddetti “deep fake fuorvianti”, molto difficili da riconoscere. Si tratta infatti di una tecnica avanzata di sintesi di immagini umane basata sull’AI che sfrutta la tecnologia di apprendimento automatico.

In particolare, questo processo coinvolge la combinazione e la sovrapposizione di immagini e video esistenti con materiale originale, utilizzando algoritmi di deep learning, una branca dell’intelligenza artificiale, i cui algoritmi sono impiegati per sostituire i volti nei contenuti video e digitali, creando così versioni di immagini o video false ma estremamente realistiche.

In questa direzione, una delle misure adottate dall’azienda è stato l’aumento di sistemi di sicurezza per fare in modo che Dell-E (lo strumento firmato OpenAI per generare immagini) rifiuti le richieste di generazione di immagini di persone reali, compresi i candidati politici.

Ancora, OpenAI sta lavorando per garantire che il suo chatbot fornisca informazioni precise e provenienti solo dai notiziari in tempo reale in tutto il mondo, indirizzando anche gli elettori verso siti web ufficiali di voto per ulteriori dettagli, promuovendo dunque la partecipazione informata al processo democratico.

Social media e influenza del sentiment

L’influenza dell’AI sulle elezioni ha generato un dibattito particolarmente intenso soprattutto negli Stati Uniti, dove aziende ed enti governativi hanno monitorato le conseguenze dell’utilizzo dell’intelligenza artificiale nei social media.

In quest’ottica, il Microsoft Threat Abalysis Center ha pubblicato a settembre un report che ha messo in luce la potenziale capacità dei prodotti generati dall’AI di plasmare il sentiment degli elettori soprattutto su alcuni temi chiave in grado di far pendere l’ago della bilancia elettorale da una parte o dall’altra.

Ma la stessa intelligenza artificiale sarà impiegata – così dichiarano sia OpenAI che Microsoft – per scovare i suoi stessi prodotti creati ad arte per le elezioni. Dunque, se disinformazione e fake news (soprattutto in tempo di elezioni) non sono di certo una novità, il pericolo, con l’avvento dell’AI, sembra amplificato.

Leggi anche
Intelligenza artificiale
di Costanza Giannelli 4 min lettura