Futuro

Fake news: esistono oltre 700 siti d’informazione generati con l’AI

Secondo Newsguard, le notizie riportate sono generiche, approssimative e contengono errori. Spesso, però, l’utente medio non ha gli strumenti critici necessari per distinguere i contenuti veri dai falsi
Credit: Marco Lenti 
Tempo di lettura 5 min lettura
4 marzo 2024 Aggiornato alle 15:00

Il primo aprile 2023 celebritiesdeaths.com, sito dedicato agli aggiornamenti sulle morti di persone famose, aveva dato la notizia della morte del presidente degli Stati Uniti Joe Biden; a novembre 2023, il sito pakistano Global Village Space titolava: “Lo psichiatra del Primo Ministro israeliano si suicida”.

Naturalmente Biden è vivo e vegeto e non risulta che Netanyahu sia in cura da uno psichiatra. Infatti, la fonte della prima notizia era un tweet, uno scherzo, di pessimo gusto, apparso su Twitter in occasione del primo aprile, mentre la seconda era un articolo satirico pubblicato su Legalienate nel 2010.

Non a caso, sia celebritiesdeaths.com che Global Village Space appaiono nella lista degli oltre 700 siti di notizie generati con l’intelligenza artificiale senza praticamente nessuna supervisione umana identificati da Newsguard.

La creazione di contenuti informativi (o che pretendono di essere informativi) da parte di chatbot e algoritmi è al centro anche del braccio di ferro tra OpenAI e il New York Times, dopo che a dicembre il quotidiano newyorkese ha accusato la società creatrice di ChatGPT di aver utilizzato senza permesso milioni di articoli protetti da copyright per addestrare l’AI, che avrebbe poi utilizzato intere parti di testo per rispondere agli utenti.

Secondo quanto riportato da Reuters, nei giorni scorsi OpenAI ha girato le carte in tavola, chiedendo ai giudici federali di rifiutare una parte delle accuse del New York Times sostenendo che la testata avrebbe “ingannato” l’AI con prompts (indicazioni per l’intelligenza artificiale) pretenziosi e insistenti per ottenere prove fuorvianti a favore dell’accusa.

Inoltre, ha detto il portavoce di OpenAI, «il Times non può impedire che l’AI acquisisca conoscenza a proposito dei fatti che accadono, proprio come altri giornali non possono impedire al Times di riportare storie che non ha investigato in prima persona».

Un’affermazione che va a toccare un nervo scoperto dell’utilizzo dell’AI nella circolazione di notizie, non solo perché i giudici che stanno analizzando il caso non hanno ancora definito se l’utilizzo di testi protetti dal diritto d’autore per addestrare gli algoritmi sia effettivamente illegittimo, ma anche perché pone un problema di qualità dell’informazione.

La riproduzione automatica di notizie senza una supervisione umana, e dunque senza quella pratica giornalistica tanto fondamentale quanto spesso sottovalutata, il fact checking, espone al rischio di una diffusione incontrollata di notizie inaccurate quando non totalmente false, come è successo nel caso della morte di Biden o dello psichiatra di Netanyahu. E se in casi così eclatanti è più facile accorgersi della bufala, in molti altri la disinformazione è più sottile e difficile da identificare.

Secondo Newsguard le piattaforme di notizie generate con l’AI sono infatti costruite in modo da trarre in inganno chi legge. I loro nomi (come iBusiness Day o Daily Time Update) e i loro layout li fanno apparire come normali siti di notizie. A un occhio più attento non sfugge che i testi sono generici, approssimativi, scritti male o con errori ma non sempre l’utente medio ha la consapevolezza o gli strumenti per accorgersi che quello che sta leggendo non è un testo scritto da una persona e dunque neanche per rendersi conto dell’eventuale falsità delle informazioni e della necessità di verificarle con altre fonti.

Il vero pericolo, spiega Futurism, non deriva tanto dalla possibilità di ingannare i lettori e le lettrici di un singolo sito, quanto dalle altre AI: una volta che una notizia falsa viene pubblicata su un sito Web può essere ripresa e rimbalzata molte volte da altre tecnologie di intelligenza artificiale generatrici di notizie che, in assenza di supervisione umana, la prenderanno per vera e la riutilizzeranno ancora e ancora fino a farla diventare una vera e propria fake news virale e fuori controllo.

Il sistema non è facile da smantellare. Come riporta Newsguard, questi siti cercano di attrarre ingenti somme di denaro attraverso le pubblicità, dal momento che generano molto traffico online, e utilizzando le AI per generare testi sono in grado di pubblicare centinaia di nuovi contenuti ogni giorno: una concorrenza sleale per qualunque altra piattaforma che si basi sulla creazione di testi scritti da autori o giornalisti. Dal momento che spesso le grandi aziende o i brand in cerca di visibilità non verificano l’affidabilità dei siti sui quali comprano spazio pubblicitario, questo rende il business delle piattaforme di AI particolarmente redditizio e crea un circolo vizioso difficile da spezzare.

A questo si aggiunge il fatto che i siti in questione mancano spesso di trasparenza sui contatti di proprietari e amministratori il che rende difficile identificare i responsabili e le loro intenzioni.

Per gli utenti del web è chiaro che diventerà sempre più difficile orientarsi in questo labirinto di informazioni e distinguere il vero dal falso. Non ci resta che sviluppare sempre di più il nostro spirito critico, scegliendo con cura le nostri fonti e cercando sempre di verificare le notizie che ci sembrano improbabili o inaccurate.

Leggi anche
Disinformazione
di Alessandro Leonardi 3 min lettura