Categories: Futuro

Il paradosso dei rischi dell’intelligenza digitale

 

E basta! Ennesima uscita pubblica deicostruttori diintelligenza artificialeche nedenunciano i pericoli. Questa volta, alzano ulteriormente la voce e dichiarano chela tecnologia può portare addirittura all’estinzione dell’umanità. Sam Altman il ciarliero fondatore diOpenAI, ma anche persone più serie come Demis Hassabis, fondatore diDeepMind, pare,hanno firmato unaletterapubblicata dalCenter for AI Safetyche denuncia il rischio più grave possibile, dal punto di vista degli umani, collegato allo sviluppo dell’intelligenza artificiale generativa. Ci sono molti argomenti da segnalare in proposito. Il primo è il più evidente. Se l’intelligenza artificiale è come una pandemia e può portare all’estinzione dell’umanità,perché Sam Altman la produce e la mette in circolazione? Se avesse un’azienda che coltiva varianti di Coronavirus le rilascerebbe nell’ambiente o le terrebbe al sicuro nei suoi laboratori? Le contraddizioni di Altman sono straordinarie.Chiede leggi riguardo l’intelligenza artificialeal Congresso americano,critica le leggi dell’Unione Europeasempre riguardo l’intelligenza artificiale e dichiara chese entreranno in vigoreOpenAIsi ritirerà dall’Europa, solo per poismentirsi 2 giornidopo, affermando che resterà in Europa. Il secondo argomento va comunque sottolineato. La lettera firmata da Altman e gli altri è statarealizzata da un’organizzazione non profitdi San Francisco, ilCenter for AI Safety, chenon rivela i nomi dei suoi finanziatori, non ha un minimo di trasparenza, non ha una storia intellettuale particolare,salvo che si dice che si occupi di fare un po’ di lobby. Insomma, non stiamo parlando di un’istituzione di ricerca che ha costruito la sua credibilità lavorando nel tempo, ma semplicemente facendosi notare con qualche exploit comunicativo. Il terzo argomento riguarda le motivazioni di queste assurde vicende. Un’ipotesi è che con i fumogeni del“rischio di estinzione dell’umanità”le aziende dell’intelligenza artificiale voglianodistrarre i sistemi politici che stanno regolamentando il loro businesscon l’obiettivo di ridurre l’impegno antitrust contro questi oligopolisti dell’intelligenza artificiale, da Microsoft a Google, togliere dal dibattito riguardo le nuove regole relative all’AI questioni come le infrazioni sulla privacy e il copyright commesse da queste aziende, le responsabilità dei produttori di intelligenza artificiale nella diffusione di disinformazione e cybercriminalità e altri rischi individuati dalla Commissione europea. Insomma, l’idea sarebbe quella disuggerire ai politici che è meglio lasciare lavorare liberamente queste megaaziendedell’intelligenza artificiale che si presentano come le più affidabili organizzazioni per gestire un fenomeno tanto “pericoloso”. Leinnovazioninormative che stanno emergendo grazie al lavoro della Commissione europea sono ben più intelligenti di questa. Sono orientate agestire i diversi livelli di rischio dell’intelligenza artificiale. Strategicamente, conducono aaumentare la trasparenza dellatecnologia.In generale, si stanno elaborando idee innovative come l’obbligo di etichettare ogni prodotto dell’intelligenza artificiale in modo che i cittadinisappiano riconoscere la sua origine,il divieto di far prendere all’intelligenza artificialedecisioni che riguardano umanisenza che ci sia un umano in una posizione di controllo, lo sviluppo di un processo diverifica della rischiosità di un prodottodi AI prima che questo sia rilasciato sul mercato. Un po’ come avviene nella farmaceutica.Testarei sistemi di riconoscimento delle immagini quando usati dalle polizie per individuare automaticamente i volti dei terroristi, per esempio, potrebbe essere una buona pratica per limitare i falsi positivi. La discussione intorno l’intelligenza artificialepotrebbe migliorare se ci si concentra su proposte come questa. Il fumo negli occhi lanciato dai produttori di AI è un’altra forma dimanipolazione del dibattito.E dimostra che i rischi di questa tecnologia non sono propri della tecnologia. Irischisono causati dallamentalità, dallepratiche, dallaprogettualità, dall’ideologia e dagliinteressidelle persone che sviluppano l’intelligenza artificiale. Sono queste persone i responsabili dei rischi. Sono peraltro gli umani a essere responsabili di comprenderla,imparare a usarla,evitare di cadere nelle trappole interpretative che quella tecnologia non cessa di distribuire nella rete. L’intelligenza artificiale non è aliena: è originata dagli umani e può essere una grande occasione di migliorare la vita, se gliumanila progettano e la usano bene.

Redazione

Share
Published by
Redazione

Recent Posts

La Danimarca si scusa per gli abusi sulle persone con disabilità

  «A nome dello Stato danese, a nome del Governo: mi dispiace». Con queste parole…

5 giorni ago

Natalità: -1,1% nei primi 4 mesi del 2023

  A poco più di un mese dagliStati Generali della Natalità, lasituazione demografica italiananon sembra…

5 giorni ago

Biodiversità: Italia è quinta in Europa per numero di ricerche scientifiche

  Dall’Accordo all’azione: ricostruire la biodiversità”. È questo il tema scelto quest’anno per la Giornata…

5 giorni ago

Ogni 2 minuti una donna muore per gravidanza o parto

  Una donna muore ogni due minuti per complicanzelegate al parto e alla gravidanza. Lo…

5 giorni ago

Bologna: l’arte di Jago, Banksy e TvBoy approda in città

  Dall’11 novembre al 7 maggio 2023,Palazzo Albergati a Bolognaospita la mostraJago, Banksy, TvBoy e…

5 giorni ago

Romano Prodi e i “ribelli” che chiedono un Patto verde Ue

  La semplice diversificazione delle importazioni dicombustibili fossiliper liberarsi dalla dipendenza russa - che garantisce…

5 giorni ago