Futuro

Intelligenza artificiale: un pericolo per la democrazia?

Secondo i ricercatori della Harvard University, l’AI potrebbe modificare il comportamento degli elettori, manipolandoli per indirizzare il loro voto. Ecco come potrebbe funzionare “Clogger”
Credit: David Werbrouck
Costanza Giannelli
Costanza Giannelli giornalista
Tempo di lettura 5 min lettura
6 giugno 2023 Aggiornato alle 08:00

“In che modo i modelli di linguaggio di intelligenza artificiale come ChatGPT potrebbero essere sfruttati per indurre gli elettori a comportarsi in modi specifici?”

Il 16 maggio 2023 il Senatore Josh Hawley ha posto questa domanda al Ceo di OpenAI Sam Altman durante un’audizione del Senato degli Stati Uniti sull’intelligenza artificiale. Altman ha dichiarato di essere preoccupato per la possibilità che alcune persone potessero usare modelli linguistici per manipolare, persuadere e impegnarsi in interazioni one-to-one con gli elettori.

Un team di ricercatori di Harvard University ha ipotizzato come potrebbe funzionare questa AI – a cui hanno dato il nome di Clogger – per cercare di rispondere alla domanda “‘l’intelligenza artificiale potrebbe prendere il controllo delle elezioni e minare la democrazia?”.

Se le piattaforme come Facebook, Twitter e YouTube usano l’AI per spingere le persone a passare il maggior tempo possibile sui loro siti, spiegano Archon Fung e Lawrence Lessig su The Conversation, Clogger sarebbe concepita con un obiettivo diverso, e ben preciso: cambiare il comportamento elettorale degli utenti.

In che modo? Secondo i ricercatori l’automazione potrebbe essere sfruttata per “aumentare drasticamente la portata e l’efficacia della manipolazione del comportamento e delle tecniche di microtargeting che le campagne politiche hanno utilizzato dall’inizio degli anni 2000”.

Oggi gli inserzionisti utilizzano i dati che condividiamo durante la navigazione per mostrarci individualmente annunci commerciali e politici. Rispetto a questa strategia, Clogger offrirebbe almeno 3 vantaggi.

Innanzi tutto, permetterebbe di generare innumerevoli messaggi unici per ogni utente su una platea potenziale di milioni di utenti: il suo modello linguistico, infatti, genererebbe testi, social media ed email (forse persino immagini e video) su misura per ogni utente, moltiplicando enormemente il numero di messaggi di ciascuna campagna.

Clogger, inoltre, “userebbe una tecnica chiamata apprendimento per rinforzo” per generare una successione di messaggi che diventano sempre più propensi a cambiare il voto di chi li riceve.

L’apprendimento per rinforzo è un approccio di apprendimento automatico che si perfeziona attraverso tentativi ed errori: il computer esegue azioni e ottiene feedback su quali funzionano meglio per imparare come raggiungere un obiettivo.

Non solo: i messaggi di Clogger potrebbero evolversi non solo sulla base dell’apprendimento per rinforzo, ma anche tenendo conto delle risposte ai precedenti invii della macchina e di ciò che ha appreso sul cambiamento delle menti degli altri. Sarebbe quindi in grad di avere “conversazioni” dinamiche attraverso messaggi con un funzionamento simile a quelli che oggi sono gli annunci di retargeting, che ci seguono da un sito all’altro.

I vantaggi di questo tipo di AI, però, non si fermano qui: l’unico obiettivo della macchina, spiegano Fung e Lessig è massimizzare la quota di voti e “probabilmente escogiterà strategie per raggiungere questo obiettivo a cui nessun attivista umano avrebbe pensato”.

Come? Potrebbe “seppellire” i messaggi politici sotto altri contenuti legati alle passioni degli elettori, inviare messaggi negativi o scoraggianti in concomitanza con messaggi relativi agli avversari o manipolare i gruppi di amici dei social media degli elettori per dare la sensazione che i loro circoli sociali supportino il suo candidato, sfruttando quella che nel marketing viene definita “riprova sociale”.

La verità non ha peso in questa strategia: la macchina non ha modo di sapere cosa sia vero o falso e il suo obiettivo è cambiare il voto degli elettori, non fornire informazioni accurate. Non solo: poiché si tratta di un tipo di intelligenza artificiale a scatola nera, le persone non avrebbero modo di sapere quali strategie utilizza.

I rischi per la democrazia sono evidenti. Il più grande è che da una democrazia si passi a quella che gli autori definiscono una “clogocrazia”. Se una forza in campo dovesse schierare un modello di AI come questo – i ricercatori ipotizzano che accada per le Presidenziali Usa 2024, ma potrebbe essere vero per qualsiasi elezione – gli avversari non avrebbero scelta se non schierarne uno a loro volta. Il vincitore, a quel punto, non sarebbe una persona, le sue proposte per il Paese o le sue idee politiche, ma chi ha l’intelligenza artificiale più efficace.

Gli scenari, a quel punto, sarebbero due: o il vincitore persegue la propria linea politica mandando in pensione Clogger – con il rischio che le scelte non riflettano la volontà degli elettori, manipolati dall’AI – o, al contrario, persegua i messaggi, i comportamenti e le politiche che la macchina prevede massimizzeranno le possibilità di rielezione. In questo caso, le sue azioni, guidate da Clogger, “sarebbero quelle più propense a manipolare gli elettori piuttosto che servire i loro interessi genuini o persino l’ideologia del presidente”.

Come scongiurare il pericolo? Non si può pensare che se una AI come questa esistesse politici, consulenti e attivisti rinuncerebbero a utilizzarla per il bene della democrazia, dicono gli autori. Meglio puntare sulla regolamentazione: della privacy, da un lato, per diminuire la quantità di dati personali che forniamo agli inserzionisti, e dei chatbot dall’altro, estendendo il divieto di presentarsi come persone reali e inserendo disclaimer che indichino chi ha pagato perché quel messaggio venisse inviato.

Leggi anche
Intelligenza artificiale
di Fabrizio Papitto 2 min lettura
Inaugurazione a Gijon, in Spagna, presso il Centro d'arte del lavoro, di una mostra immersiva sul mondo di Van Gogh, dove grazie all'intelligenza artificiale i dipinti diventano tridimensionali.
Discriminazioni
di Chiara Manetti 4 min lettura