“Ci sono state segnalazioni e preoccupazioni sollevate sulle violazioni dei diritti umani in Arabia Saudita cheimplicano l’uso di tecnologie digitali. Ma è importante notare che questi rapporti e accusenon si limitano specificamente all’intelligenza artificiale, ma comprendono una gamma più ampia di tecnologie digitali e il loro potenziale uso improprio”. A parlare èChatGPT, il più noto sistema di intelligenza artificiale, rispondendo alla domanda sollevata da un giornalista del quotidiano Deutsche Welle relativa ai pericoli della diffusione dell’AI in Medio Oriente. Sì, perché i Paesi del Golfo –Arabia Saudita, Emirati Arabi Uniti e Qatar in testa– stanno spendendo cifre esorbitanti per l’intelligenza artificiale. Sono tra Paesi che spendono di più per assicurarsela, investendo cifre pari o superiori a quelle di alcuni Stati europei. Quest’anno il Medio Oriente spenderà 3 miliardi di dollari (2,8 miliardi di euro) per l’IA, che saliranno a 6,4 miliardi entro il 2026, dice un rapporto sulla spesa mondiale per l’AIdell’International Data Corporation, e la regione vedrà una crescita annuale della spesa pari a quasi il 30% in questa tecnologia nei prossimi tre anni, il più veloce a livello globale. L’AI, ha spiegato Cathrin Schaer suDW, è infatti “una parte importante dei piani futuri per sviluppare le loro economie nazionali lontano dai proventi del petrolio”. Assieme agli investimenti, però,sta aumentando anche la preoccupazione per l’uso improprio dell’IA negli Stati autoritarie, più in generale, per l’utilizzo “improprio” degli strumenti digitali, che potrebbe mettere in pericolo i cittadini. In diverse occasioni l’Arabia Saudita è stataaccusata di utilizzare tecnologie digitali per spiare i dissidenti e le loro famiglie all’estero, oltre che di tentare di infiltrarsi inTwitterper identificare gli oppositori del governo utilizzando account anonimi. Per questo si teme quello che potrebbe accadere con un utilizzo sempre più massivo dell’intelligenza artificiale, uno strumento che ha già mostrato molte criticità, dallaviolazione della privacyfino alla replicazione di discriminazione e stereotipi. «L’uso della cosiddetta intelligenza artificiale e dei sistemi basati sull’intelligenza artificiale sta aumentando in tutto il mondo esi aprono nuovi modi di violare potenzialmente i diritti fondamentalidelle persone sorvegliandole o manipolandole», ha detto aDWAngela Mueller, responsabile della politica e della difesa all’organizzazione con sede a Berlino, Algorithm Watch. «C’è sicuramente il pericolo che l’uso di sistemi basati sull’intelligenza artificialeesacerbi ulteriormente le ingiustizie esistenti, specialmente quando tali stati [senza protezione dei diritti umani o stato di diritto] ora promuovono lo sviluppo e l’uso dell’AI per miliardi di dollari». Proprio per scongiurare il rischio che l’applicazione estesa e universale dell’AI possa tradursi in un incubo orwelliano, tra qualche settimana il Parlamento Ue voterà l’AI Act, una regolamentazione basata su quello che viene definitorisk-based approach, un approccio che distingue obblighi di conformità più o meno elevati a seconda del rischio (basso, medio o elevato) che software e applicazioni possono causare ai diritti fondamentali. In questa regione, però, non ci sono legislazioni, solo linee guida “etiche” che non hanno alcun obbligo legale. Cosa accade, quindi, si e ci chiede Schaer,quando l’AI finisce nelle mani di governi autocraticiche dietro una parvenza di democrazia sono fondamentalmente guidati da famiglie reali che non tollerano il dissenso? Al momento, l’intelligenza artificiale viene utilizzata – come in moltissimi altri Paesi – in una serie di applicazioni che vanno dal retail all’ottimizzazione di servizi statali o privati (come le prestazioni della compagnia aerea d bandiera Emirates). I dubbi, però, come del nel resto del mondo sono legati alla sicurezza dei dati, alla sorveglianza, il filtraggio dei contenuti, la diffusione mirata della propaganda, l’accuratezza nell’analisi dell’IA e la parzialità. A preoccupare è anche il quello che viene definito “doppio utilizzo” delle funzionalità messe a disposizione dall’AI. Il riconoscimento facciale, a esempio, può essere un innocuo modo per trovare amici e conoscenti sui social, ma dietro l’uso civile ce n’è uno più preoccupante: quello militare, che potrebbe impiegare questa tecnologia in molte circostanze, come per riconoscere manifestanti e dissidenti durante le proteste. «Nei Paesi in cui le autorità prendono già di mira i difensori dei diritti umani e i giornalisti per esercitare pacificamente i loro diritti, le implicazioni [dell’IA] possono essere ancora più devastanti», le ha risposto Iverna McGowan, direttrice dell’ufficio europeo delCentro per la democrazia e la tecnologia(Cdt). «Questi sistemi aprononuovi modi di violarepotenzialmente i diritti più fondamentali delle persone sorvegliandole o manipolandole, impedendo loro di avere voce in capitolo e difendersi. La combinazione di opacità, aree sensibili e questi potenziali impatti sono particolarmente problematici incontesti in cui non esiste una protezione affidabile dei diritti umani e dello stato di diritto», le ha fatto eco Mueller.
Versare i contributi? Sembra ormai essere acqua passata, adesso l'INPS te li regala come un…
«A nome dello Stato danese, a nome del Governo: mi dispiace». Con queste parole…
A poco più di un mese dagliStati Generali della Natalità, lasituazione demografica italiananon sembra…
Dall’Accordo all’azione: ricostruire la biodiversità”. È questo il tema scelto quest’anno per la Giornata…
Una donna muore ogni due minuti per complicanzelegate al parto e alla gravidanza. Lo…
Dall’11 novembre al 7 maggio 2023,Palazzo Albergati a Bolognaospita la mostraJago, Banksy, TvBoy e…