Futuro

Medio Oriente: come viene gestita l’AI

Secondo l’ultimo rapporto dell’International Data Corporation, quest’anno i Paesi del Golfo hanno investito 3 miliardi di dollari in intelligenza artificiale. 6,4 miliardi entro il 2026. Dobbiamo preoccuparci?
Credit: Collage
Costanza Giannelli
Costanza Giannelli giornalista
Tempo di lettura 5 min lettura
12 giugno 2023 Aggiornato alle 10:00

“Ci sono state segnalazioni e preoccupazioni sollevate sulle violazioni dei diritti umani in Arabia Saudita che implicano l’uso di tecnologie digitali. Ma è importante notare che questi rapporti e accuse non si limitano specificamente all’intelligenza artificiale, ma comprendono una gamma più ampia di tecnologie digitali e il loro potenziale uso improprio”.

A parlare è ChatGPT, il più noto sistema di intelligenza artificiale, rispondendo alla domanda sollevata da un giornalista del quotidiano Deutsche Welle relativa ai pericoli della diffusione dell’AI in Medio Oriente.

Sì, perché i Paesi del Golfo – Arabia Saudita, Emirati Arabi Uniti e Qatar in testa – stanno spendendo cifre esorbitanti per l’intelligenza artificiale. Sono tra Paesi che spendono di più per assicurarsela, investendo cifre pari o superiori a quelle di alcuni Stati europei.

Quest’anno il Medio Oriente spenderà 3 miliardi di dollari (2,8 miliardi di euro) per l’IA, che saliranno a 6,4 miliardi entro il 2026, dice un rapporto sulla spesa mondiale per l’AI dell’International Data Corporation, e la regione vedrà una crescita annuale della spesa pari a quasi il 30% in questa tecnologia nei prossimi tre anni, il più veloce a livello globale. L’AI, ha spiegato Cathrin Schaer su DW, è infatti “una parte importante dei piani futuri per sviluppare le loro economie nazionali lontano dai proventi del petrolio”.

Assieme agli investimenti, però, sta aumentando anche la preoccupazione per l’uso improprio dell’IA negli Stati autoritari e, più in generale, per l’utilizzo “improprio” degli strumenti digitali, che potrebbe mettere in pericolo i cittadini.

In diverse occasioni l’Arabia Saudita è stata accusata di utilizzare tecnologie digitali per spiare i dissidenti e le loro famiglie all’estero, oltre che di tentare di infiltrarsi in Twitter per identificare gli oppositori del governo utilizzando account anonimi. Per questo si teme quello che potrebbe accadere con un utilizzo sempre più massivo dell’intelligenza artificiale, uno strumento che ha già mostrato molte criticità, dalla violazione della privacy fino alla replicazione di discriminazione e stereotipi.

«L’uso della cosiddetta intelligenza artificiale e dei sistemi basati sull’intelligenza artificiale sta aumentando in tutto il mondo e si aprono nuovi modi di violare potenzialmente i diritti fondamentali delle persone sorvegliandole o manipolandole», ha detto a DW Angela Mueller, responsabile della politica e della difesa all’organizzazione con sede a Berlino, Algorithm Watch. «C’è sicuramente il pericolo che l’uso di sistemi basati sull’intelligenza artificiale esacerbi ulteriormente le ingiustizie esistenti, specialmente quando tali stati [senza protezione dei diritti umani o stato di diritto] ora promuovono lo sviluppo e l’uso dell’AI per miliardi di dollari».

Proprio per scongiurare il rischio che l’applicazione estesa e universale dell’AI possa tradursi in un incubo orwelliano, tra qualche settimana il Parlamento Ue voterà l’AI Act, una regolamentazione basata su quello che viene definito risk-based approach, un approccio che distingue obblighi di conformità più o meno elevati a seconda del rischio (basso, medio o elevato) che software e applicazioni possono causare ai diritti fondamentali. In questa regione, però, non ci sono legislazioni, solo linee guida “etiche” che non hanno alcun obbligo legale.

Cosa accade, quindi, si e ci chiede Schaer, quando l’AI finisce nelle mani di governi autocratici che dietro una parvenza di democrazia sono fondamentalmente guidati da famiglie reali che non tollerano il dissenso?

Al momento, l’intelligenza artificiale viene utilizzata – come in moltissimi altri Paesi – in una serie di applicazioni che vanno dal retail all’ottimizzazione di servizi statali o privati (come le prestazioni della compagnia aerea d bandiera Emirates). I dubbi, però, come del nel resto del mondo sono legati alla sicurezza dei dati, alla sorveglianza, il filtraggio dei contenuti, la diffusione mirata della propaganda, l’accuratezza nell’analisi dell’IA e la parzialità.

A preoccupare è anche il quello che viene definito “doppio utilizzo” delle funzionalità messe a disposizione dall’AI. Il riconoscimento facciale, a esempio, può essere un innocuo modo per trovare amici e conoscenti sui social, ma dietro l’uso civile ce n’è uno più preoccupante: quello militare, che potrebbe impiegare questa tecnologia in molte circostanze, come per riconoscere manifestanti e dissidenti durante le proteste.

«Nei Paesi in cui le autorità prendono già di mira i difensori dei diritti umani e i giornalisti per esercitare pacificamente i loro diritti, le implicazioni [dell’IA] possono essere ancora più devastanti», le ha risposto Iverna McGowan, direttrice dell’ufficio europeo del Centro per la democrazia e la tecnologia (Cdt).

«Questi sistemi aprono nuovi modi di violare potenzialmente i diritti più fondamentali delle persone sorvegliandole o manipolandole, impedendo loro di avere voce in capitolo e difendersi. La combinazione di opacità, aree sensibili e questi potenziali impatti sono particolarmente problematici in contesti in cui non esiste una protezione affidabile dei diritti umani e dello stato di diritto», le ha fatto eco Mueller.

Leggi anche
AI
di Fabrizio Papitto 2 min lettura
Intelligenza artificiale
di Luca De Biase 4 min lettura