Storie

Mariarosa Taddeo: «Non bisogna pensare a macchine Vs esseri umani, ma all’integrazione»

La professoressa esperta in intelligenza artificiale (Oxford e Alan Turing Institute), che interverrà oggi a Il Verde e il Blu festival, ha raccontato a La Svolta le sfide presenti e future per etica, AI e innovazione tecnologica
Mariarosa Taddeo, docente di Digital Ethics and Defence Technology presso l’Oxford Internet Institute dell’Università di Oxford e Defense Science and Technology Fellow presso l’Alan Turing Institute 
Mariarosa Taddeo, docente di Digital Ethics and Defence Technology presso l’Oxford Internet Institute dell’Università di Oxford e Defense Science and Technology Fellow presso l’Alan Turing Institute 
Tempo di lettura 9 min lettura
19 ottobre 2023 Aggiornato alle 09:00

Oggi e domani al The Mall di Milano si parlerà di innovazione e tecnologia a Il Verde e il Blu Festival: 2 giornate (organizzate dalla multinazionale di consulenza BIP e prodotte da Beulcke&Partners) di talk e incontri per “intrecciare” il verde della sostenibilità e il blu dell’innovazione.

Questo pomeriggio, tra i 5 leading talk d’eccezione dedicati all’aerospazio, intelligenza artificiale, sostenibilità dell’economia, quantum computing e fabbrica del futuro, interverrà (dalle 14:30 alle 15:30) anche Mariarosa Taddeo, professoressa di Digital Ethics and Defence Technology presso l’Oxford Internet Institute dell’Università di Oxford e Defense Science and Technology Fellow presso l’Alan Turing Institute di Londra, per raccontare come evolve “il senso etico” dell’intelligenza Artificiale.

La professoressa ha parlato proprio di etica e AI con La Svolta.

Come definirebbe il rapporto tra etica e intelligenza artificiale?

Un filosofo politico dice che l’etica è come la strategia: ci serve a capire quali sono gli obiettivi finali. Allo stesso modo questo ragionamento vale per l’etica nel contesto dell’intelligenza artificiale, che ci serve a capire quali sono le opportunità che non possiamo perdere ma anche quali sono i rischi che questa tecnologia comporta, che dobbiamo identificare e risolvere perché altrimenti si rischia di non poterne sfruttare il potenziale positivo.

Quali sono secondo lei le principali sfide etiche di oggi?

La sfida più grande è che l’intelligenza artificiale ci offre un potenziale enorme sia per capire il mondo intorno a noi che per cogliere soluzioni a problemi come il cambiamento climatico o malattie molto complesse che da soli, come umani, non siamo riusciti a comprendere. Quindi una grande sfida è sicuramente riuscire a incanalare questo grande potenziale in questa direzione. Abbiamo poi una questione che riguarda l’attribuzione di responsabilità, perché è difficile attribuire la responsabilità delle azioni che questa tecnologia suggerisce agli esseri umani; e poi un’altra sfida sicuramente riguarda l’impatto che questa può avere sulla circolazione delle informazioni e quindi sul dibattito pubblico, il che ricade anche sui processi democratici.

I sistemi basati sull’intelligenza artificiale vengono ormai impiegati da tempo, mi riferisco per esempio agli algoritmi che ci suggeriscono contenuti o acquisti sul web, ma dopo il lancio di ChatGPT c’è stato il boom di dibattiti. Perché fa così paura?

Diciamo che con ChatGPT siamo passati da un tipo di intelligenza artificiale a un altro. Quello degli algoritmi è di tipo predittivo, che impara dai dati del passato per fare delle previsioni su scenari futuri, per esempio: se hai comprato questo libro allora potrebbe piacerti anche questo. ChatGPT è invece di tipo generativo, il che significa che sulla base di dati e calcoli statistici non predice il futuro, ma riesce a capire qual è la parola che segue sulla base di un dataset di parole precedenti.

Quindi ChatGPT ha fatto scalpore per questo?

Sì, sostanzialmente ci sono 3 ragioni: la prima è che l’intelligenza generativa, e non solo ChatGPT, è molto versatile e ha un potenziale enorme su moltissimi processi. E questo ha un grande impatto per esempio sull’efficacia dei processi. Poi le AI generative sono state democraticizzate: se prima interagire con l’intelligenza artificiale richiedeva o un minimo di capacità tecniche o quanto meno scontrarsi con una macchina che non funziona perfettamente, con ChatGPT le interazioni sono con il linguaggio naturale, quindi chiunque sappia scrivere può utilizzarla. E non caso OpenAI ha fatto tantissimi utenti in 5 giorni.

Infine c’è poi un dibattito che è stato anche alimentato in maniera maliziosa rispetto alle ricadute di questa tecnologia sui posti di lavoro e il ruolo degli esseri umani: io credo sia in buona parte tendenzioso, perché si è confusa la versatilità di ChatGPT con la capacità cognitiva degli esseri umani. Ci sono poi anche problemi più concreti che sono diventati problemi di rilevanza per molti utenti, come la questione del copyright delle immagini utilizzate per allenare le tecnologie generative. Sostanzialmente quindi si sono incrociate tematiche concrete di grande impatto con supposizioni fantascientifiche che fanno appello alle paure di tutti e attecchiscono laddove non c’è informazione.

Secondo il Financial Times, le nuove tecnologie rappresentano sia una minaccia che un vantaggio per l’accesso delle donne al lavoro. In particolare sostiene che la flessibilità e le assunzioni basate sulle competenze miglioreranno l’uguaglianza di genere e aiuteranno le aziende ad attrarre i migliori talenti. Lei è d’accordo?

Io sulle modellizzazioni del mondo del lavoro sono sempre un po’ scettica, perché i sistemi professionali sono molto complessi ed è difficile che ci sia un modello che tenga in considerazione tutte le variabili e le interazioni tra queste variabili. Sono cose che vanno prese con grande cautela. Credo però che l’intelligenza artificiale stia avendo e avrà sempre di più impatto sul modo in cui lavoriamo, perché lo concepiamo come un agente dei nostri processi professionali, che sia la stesura di un articolo o di un report o l’analisi dei dati. Quindi dobbiamo imparare a gestire questa tecnologia, a non fidarci ciecamente, capire quando possiamo essere in disaccordo e quando no.

Credo ci siano 2 cose importante da sottolineare qui: la prima è che la cosa che mi preoccupa non è tanto la perdita dei posti di lavoro, perché potrebbe succedere come no, ma noi delegheremo sempre di più alle macchine dei compiti, soprattutto quelli più tediosi o quelli che richiedono molto tempo. Dobbiamo dunque essere sicuri nel delegare quei compiti: non perdiamo le capacità di stare dietro a quelle stesse mansioni. Noi vogliamo che i piloti siano ancora in grado di far atterrare un aereo, perché altrimenti nessuno sarà in grado di farlo atterrare la volta in cui l’intelligenza artificiale sbaglia o non funziona.

L’altro elemento importante è una questione della gestione delle due autonomie, quella dell’AI e quella dell’essere umano. E sono due autonomie diverse che devono riuscire a lavorare insieme senza che l’autonomia umana venga prevaricata. Per esempio, c’è un problema famoso in letteratura che è il technology bias, ossia la tendenza degli esseri umani ad accettare in maniera acritica i suggerimenti di una macchina. Come facciamo a evitare che questo succeda quando le macchine sono distribuite in maniera capillare nelle nostre attività? Come facciamo a fare sì che gli umani si fidino delle macchine nella giusta misura ma che le guardino anche con criticità nella giusta misura? Chi si prende la responsabilità se la macchina fa qualcosa di sbagliato e l’abbiamo seguita acriticamente?

È questo il processo che forse dovremmo iniziare a considerare, al di là delle professioni che potrebbero estinguersi o emergere, anche perché le aziende sono molto caute nell’adozione dell’intelligenza artificiale; quindi non è che da un anno all’altro abbiamo l’AI dove non c’era. Ci sono dei test e delle sperimentazioni che richiedono tempo, e noi dovremmo sfruttare questo tempo per prepararci e non farci cogliere disorganizzati.

Quali sono quindi secondo lei i principali dilemmi etici legati all’uso dell’Intelligenza Artificiale?

Ci sono dei rischi che sono rischi concreti: sappiamo che l’AI perpetra giudizi creandoli dai dati che noi diamo a questa tecnologia, e questo è un problema. E abbiamo un problema che ha a che fare con il controllo, perché è una tecnologia che ha due caratteristiche: spesso è oscura, e non riusciamo a capire come alcuni output vengano generati, senza capire se siano sbagliati o in qualche modo giustificati. Poi è una tecnologia probabilistica: non possiamo prevedere con certezza il suo comportamento una volta che sarà in uso. E questo significa che non la controlliamo al 100%.

Quali potrebbero essere i progetti che ritiene siano fondamentali per promuovere una maggiore consapevolezza e comprensione delle questioni etiche nell’ambito dell’intelligenza artificiale?

Di iniziative ce ne sono state tante: l’Ue ha creato linee guide per un’intelligenza artificiale affidabile che sono state elaborate nel 2019, e l’ultima volta che è stata fatta una rassegna dei principi etici considerati affidabili da grandi attori pubblici c’erano 82 documenti. Quindi c’è una certa attenzione seria da parte di moltissimi attori sui principi etici. Quello che forse è diventato evidente è che queste tematiche devono essere portate anche a livello di dibattito pubblico, perché l’opinione pubblica media non è informata: si guarda ancora all’intelligenza artificiale come qualcosa di fantascientifico, e questo è problematico, perché il digitale, l’intelligenza artificiale stanno alla base della società di oggi e influisce su tantissimi processi. E spesso le persone la utilizzano senza saperlo fare, e questo è problematico.

L’AI potrebbe essere uno strumento per cambiare il modo di fare le guerre? E se sì, come?

L’ha già cambiato, è già successo. Tantissimi Paesi la utilizzano a 360 gradi, in senso strategico: pensiamo alla distribuzione dell’acqua ai combattenti, una questione di logistica. O per l’analisi dei dati, che è una questione di intelligence. O ancora, tutta la parte cyber, che viene già sfruttata nei contesti della difesa, sia a livello nazionale che internazionale. E poi abbiamo le armi autonome, di cui però non abbiamo regolamentazioni. Ma le abbiamo già viste utilizzate, in forma più o meno integrale. Gli esseri umani non possono fare questo lavoro da soli: già lo facciamo con l’ausilio dell’AI e lo faremo sempre più spesso. Manca però la regolamentazione.

Nel contesto del suo intervento al Il Verde e il Blu Festival, quali saranno le tematiche di rilievo?

Principalmente vedremo quali sono le sfide dell’intelligenza artificiale da un punto di vista etico, quali sono le distrazioni, come la fantascienza e l’AI che diventa senziente perché sa scrivere una poesia o che ruberà posti di lavoro. Ci sarà proprio una parte di talk dedicata a questo. E poi ci concentreremo su questa necessità di cambiare il paradigma, di non pensare più a macchine contro esseri umani, ma a un’integrazione.

Leggi anche
AI
di Michele Kettmajer 8 min lettura