Futuro

Quali sono i (reali) rischi dell’intelligenza artificiale?

Parlare dei pericoli dell’AI spesso significa essere considerati “anti innovazione”. In questi casi, bisogna tenere a mente 3 concetti chiave: inevitabilismo tecnologico, longtermism, antropomorfizzazione
Credit: Playground
Tempo di lettura 6 min lettura
17 aprile 2023 Aggiornato alle 12:00

A evidenziare i rischi di un nuovo prodotto tecnologico si finisce sempre per essere accusati di opporsi all’innovazione. L’accusa di essere “solo dei retrogradi” rispetto a ChatGPT, il chatbot basato su un Large Language Model (LLM) e reso accessibile a tutti dalla società americana OpenAI, compare in questi giorni di frequente nel dibattito: sui media ma anche nel contesto scientifico.

Ma, come altri argomenti, anche questo deve essere contestualizzato in una vasta operazione di marketing fatta dai grandi attori dell’informatica della Silicon Valley per facilitare l’introduzione di applicazioni ancora premature dal punto di vista tecnologico, non ancora testate dal punto di vista della sicurezza e che si collocano in zone non ancora regolate dal legislatore.

Prima di tutto focalizziamoci sul fatto che i rischi evidenziati si riferiscono a prodotti commerciali che hanno dietro di sé un modello di business e che fanno gli interessi di privati che hanno investito decine di miliardi (Microsoft pare abbia investito 10 miliardi di dollari in OpenAI) e che non solo tengono nascosto il codice sorgente ma non rivelano i dettagli relativi ai dati utilizzati. Per non parlare delle centinaia di milioni di dollari spesi in attività di lobbying a Washington e Bruxelles.

L’allarme non si riferisce alla tecnologia in sé, come invece l’operazione di marketing tende a far credere per ribaltare la critica. Questa raccomandazione vale ancora di più nel mondo dell’AI, dove le tecnologie come ChatGPT hanno bisogno di risorse con un costo maggiore di diversi ordini di grandezza rispetto a quanto può permettersi la ricerca pubblica.

L’accusa di essere contrari all’innovazione è parte di un più ampio argomento che è quello dell’inevitabilismo tecnologico. Ricordiamo quanto dice la docente di Harvard Shoshana Zuboff nel suo libro del 2019 The Age of Surveillance Capitalism: l’inevitabilismo tecnologico è la credenza che il progresso tecnologico, anche quando catastrofico per il Pianeta, ostile alla vita umana o disastroso per la società, non può essere rallentato, prevenuto o invertito.

Le corporation alimentano questa credenza con un solo fine: incoraggiare le persone ad accettare come inesorabile uno sviluppo tecnologico che invece potrebbe andare in altro modo, fare apparire i conseguenti cambiamenti sociali come naturali, come il prodotto di forze che agiscono fuori dalla storia e vanno oltre le possibilità di scelta delle comunità. Mentre invece l’introduzione delle innovazioni è da sempre il risultato di una scelta politica imposta da pochi.

Nel 2019 Zuboff non si poteva riferire agli LLM, che allora erano agli albori, ma dopo 4 anni non abbiamo ancora imparato la lezione: “Technological inevitability is the mantra on which we are trained, but it is an existential narcotic prescribed to induce resignation: a snuff dream of the spirit”.

Accanto alla narrative dell’inevitabilismo tecnologico, dobbiamo ricordare altre 2 linee retoriche su cui puntano le corporation dell’AI. La prima è il cosiddetto longtermism: focalizzare l’attenzione dell’opinione pubblica verso presunti pericoli a lungo termine, spauracchio più accattivante dal punto di vista emotivo per il largo pubblico. Elon Musk è uno dei rappresentanti di questa posizione, che nella open-letter del Future of Life Institute spiega: “Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us?” (“Dovremmo sviluppare menti non umane che potrebbero essere eventualmente più numerose, più astute, obsolete e che potrebbero sostituirci?”). Lo scrittore Eliezer Yudkowsky ritiene la lettera addirittura troppo blanda, in quanto “è ovvio” che il risultato di costruire superhumanly smart AI sarà che “letteralmente ognuno sulla Terra morirà”.

La seconda narrative è quella dell’antropomorfizzazione dell’AI: parlare delle macchine come fossero degli esseri umani, andando a evidenziarne il carattere autonomo e attribuendo loro stati mentali ed emozioni. Questa idea è anche alla base dell’argomento precedente, perché per “prendere il controllo del mondo e sterminare l’umanità” è necessario che le macchine abbiano una “volontà di potenza”, cioè uno stato mentale (e anche pochi scrupoli).

Gli scopi di questa narrazione retorica sono 2. Il primo è esentare i produttori di sistemi AI dalla responsabilità per i possibili danni provocati dalle macchine: se questa è come un umano, è un agente autonomo, allora la responsabilità è da ricercare solo nella sua autonomia. Il continuo rimando alle 3 leggi della robotica di Asimov è purtroppo parte di questa retorica: si fanno addirittura apparire le macchine come possibili agenti morali. E come ci ricorda la filosofa Daniela Tafani dell’Università di Pisa, anche l’Unione Europea è inconsapevolmente caduta in questa trappola quando vuole promuovere una “trustworthy AI”, finanziando la ricerca nel settore.

Il secondo scopo dell’antropomorfizzazione è quello di incrementare l’impatto che possono avere questi sistemi su di noi, facendo leva sul nostro meccanismo innato di attribuire stati mentali, intenzioni comunicative e soprattutto emozioni al nostro interlocutore. È ciò che, giustamente, abbiamo fatto per circa 100.000 anni parlando con altri esseri umani e che tendiamo a fare anche di fronte a una macchina come ChatGPT che di umano non ha nulla dal momento che produce solamente un insieme di parole che, dato tutto il contenuto testuale del web su cui ha fatto apprendimento, è quello statisticamente più probabile come prosecuzione dell’insieme di parole in input (evito di proposito di parlare di risposta a una domanda dell’utente, dato che il termine risposta presuppone una comprensione della domanda e di quanto si sta rispondendo).

L’attribuzione da parte nostra di stati mentali ed emozioni a una macchina all’interno di un dialogo apre nuovi spazi all’estrazione di nostri dati e a una possibilità di manipolazione nei nostri confronti, anche per fini politici, ma prima di tutto per fini commerciali. Se il modello di business dei LLM sarà simile a quello dei social network, cioè la vendita di spazi pubblicitari personalizzati usando i dati estratti dall’utente, i rischi portati da queste applicazioni saranno molto grandi perché si potrà comunicare pubblicità personalizzata in maniera occulta, in un contesto connotato emotivamente, in cui l’utente attribuisce fiducia e competenze alla macchina. Rischi che sono ancora più grandi nel caso dell’utilizzo della macchina da parte di minori e di chi non sia cosciente della realtà del suo funzionamento.

Guido Boella è docente presso il Dipartimento di informatica dell’Università di Torino e fondatore di SIpEIA - Società Italiana per l’Etica dell’Intelligenza Artificiale. Modererà l’incontro dedicato a ChatGpt al Circolo dei lettori di Torino, oggi alle 16:00.

Leggi anche
AI
di Antonio Pellegrino 2 min lettura
Algoritmi
di Luca De Biase 4 min lettura