Quali sono i (reali) rischi dell’intelligenza artificiale?

Quali sono i (reali) rischi dell’intelligenza artificiale?

 

A evidenziare irischidi un nuovo prodotto tecnologico si finisce sempre per essere accusati diopporsi all’innovazione. L’accusa di essere “solo dei retrogradi” rispetto aChatGPT,ilchatbotbasato su unLarge Language Model(LLM) e reso accessibile a tutti dalla società americanaOpenAI, compare in questi giorni di frequente nel dibattito: sui media ma anche nel contesto scientifico. Ma, come altri argomenti, anche questo deve esserecontestualizzatoin una vastaoperazione di marketingfatta dai grandi attori dell’informatica della Silicon Valley perfacilitare l’introduzione di applicazioni ancora prematuredal punto di vista tecnologico, non ancora testate dal punto di vista della sicurezza e che si collocano in zone non ancora regolate dal legislatore. Prima di tutto focalizziamoci sul fatto chei rischi evidenziati si riferiscono a prodotti commercialiche hanno dietro di sé unmodello di businesse che fanno gliinteressi di privatiche hanno investito decine di miliardi (Microsoft pare abbia investito10 miliardi di dollariinOpenAI) e che non solo tengono nascosto il codice sorgente ma non rivelano i dettagli relativi ai dati utilizzati. Per non parlare delle centinaia di milioni di dollari spesi in attività di lobbying a Washington e Bruxelles. L’allarme non si riferisce alla tecnologia in sé, come invece l’operazione di marketing tende a far credere per ribaltare la critica. Questa raccomandazione vale ancora di più nel mondo dell’AI,dove le tecnologie come ChatGPT hanno bisogno di risorse con un costo maggiore di diversi ordini di grandezza rispetto a quanto può permettersi la ricerca pubblica. L’accusa di essere contrari all’innovazione è parte di un più ampio argomento che è quello dell’inevitabilismo tecnologico.Ricordiamo quanto dice la docente di Harvard Shoshana Zuboff nel suo libro del 2019The Age of Surveillance Capitalism: l’inevitabilismo tecnologico è lacredenza che il progresso tecnologico,anche quando catastrofico per il Pianeta, ostile alla vita umana o disastroso per la società,non può essere rallentato,prevenuto o invertito. Le corporation alimentano questa credenza con un solo fine:incoraggiare le persone ad accettarecome inesorabile uno sviluppo tecnologico che invece potrebbe andare in altro modo,fare apparire i conseguenti cambiamenti sociali come naturali, come il prodotto di forze che agiscono fuori dalla storia e vanno oltre le possibilità di scelta delle comunità. Mentre invece l’introduzione delle innovazioni è da sempre il risultato di una scelta politica imposta da pochi. Nel 2019 Zuboff non si poteva riferire agli LLM, che allora erano agli albori, ma dopo 4 anni non abbiamo ancora imparato la lezione: “Technological inevitability is the mantra on which we are trained, but it is an existential narcotic prescribed to induce resignation: a snuff dream of the spirit”. Accanto allanarrativedell’inevitabilismo tecnologico, dobbiamo ricordare altre2 linee retoriche su cui puntano le corporation dell’AI.La prima è il cosiddettolongtermism: focalizzare l’attenzione dell’opinione pubblica versopresunti pericoli a lungo termine,spauracchio più accattivante dal punto di vista emotivo per il largo pubblico. Elon Musk è uno dei rappresentanti di questa posizione, che nellaopen-letterdelFuture of Life Institutespiega: “Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us?” (“Dovremmo sviluppare menti non umane che potrebbero essere eventualmente più numerose, più astute, obsolete e che potrebbero sostituirci?”). Lo scrittoreEliezer Yudkowskyritiene la lettera addirittura troppo blanda, in quanto “è ovvio” che il risultato di costruiresuperhumanly smart AIsarà che“letteralmente ognuno sulla Terra morirà”. La secondanarrativeè quella dell’antropomorfizzazione dell’AI: parlare delle macchinecome fossero degli esseri umani, andando a evidenziarne il carattere autonomo e attribuendo loro stati mentali ed emozioni. Questa idea è anche alla base dell’argomento precedente, perché per “prendere il controllo del mondo e sterminare l’umanità” è necessario che le macchine abbiano una “volontà di potenza”, cioè uno stato mentale (e anche pochi scrupoli). Gli scopi di questa narrazione retorica sono 2. Il primo èesentare i produttori di sistemi AI dalla responsabilitàper i possibili danni provocati dalle macchine: se questa è come un umano, è un agente autonomo, allora la responsabilità è da ricercare solo nella sua autonomia. Il continuo rimando alle 3 leggi della robotica di Asimov è purtroppo parte di questa retorica: si fanno addirittura apparire le macchine come possibili agenti morali. E come ci ricorda la filosofa Daniela Tafani dell’Università di Pisa, anche l’Unione Europea è inconsapevolmente caduta in questa trappola quando vuole promuovere una “trustworthy AI”, finanziando la ricerca nel settore. Il secondo scopo dell’antropomorfizzazione è quello diincrementare l’impatto che possono avere questi sistemi su di noi,facendo leva sul nostro meccanismo innato diattribuire stati mentali, intenzioni comunicativee soprattuttoemozionial nostro interlocutore. È ciò che, giustamente, abbiamo fatto per circa 100.000 anni parlando con altri esseri umani e che tendiamo a fare anche di fronte a una macchina comeChatGPTchediumanonon ha nulladal momento che produce solamente un insieme di parole che, dato tutto il contenuto testuale del web su cui ha fatto apprendimento, è quello statisticamente più probabile come prosecuzione dell’insieme di parole in input (evito di proposito di parlare di risposta a una domanda dell’utente, dato che il termine risposta presuppone una comprensione della domanda e di quanto si sta rispondendo). L’attribuzione da parte nostra di stati mentali ed emozioni a una macchina all’interno di un dialogo apre nuovi spazi all’estrazione di nostri datie a una possibilità dimanipolazione nei nostri confronti, anche per fini politici, ma prima di tutto perfini commerciali.Se il modello di business dei LLM sarà simile a quello dei social network, cioè la vendita di spazi pubblicitari personalizzati usando i dati estratti dall’utente, i rischi portati da queste applicazioni saranno molto grandi perchési potrà comunicare pubblicità personalizzata in maniera occulta,in un contesto connotato emotivamente, in cui l’utente attribuisce fiducia e competenze alla macchina. Rischi che sono ancora più grandi nel caso dell’utilizzo della macchina da parte di minorie di chi non sia cosciente della realtà del suo funzionamento. Guido Boella è docente presso ilDipartimento di informatica dell’Università di Torinoe fondatore diSIpEIA – Società Italiana per l’Etica dell’Intelligenza Artificiale.Modereràl’incontro dedicato a ChatGptal Circolo dei lettori di Torino, oggi alle 16:00.