Categories: Futuro

Il paradosso dei rischi dell’intelligenza digitale

 

E basta! Ennesima uscita pubblica deicostruttori diintelligenza artificialeche nedenunciano i pericoli. Questa volta, alzano ulteriormente la voce e dichiarano chela tecnologia può portare addirittura all’estinzione dell’umanità. Sam Altman il ciarliero fondatore diOpenAI, ma anche persone più serie come Demis Hassabis, fondatore diDeepMind, pare,hanno firmato unaletterapubblicata dalCenter for AI Safetyche denuncia il rischio più grave possibile, dal punto di vista degli umani, collegato allo sviluppo dell’intelligenza artificiale generativa. Ci sono molti argomenti da segnalare in proposito. Il primo è il più evidente. Se l’intelligenza artificiale è come una pandemia e può portare all’estinzione dell’umanità,perché Sam Altman la produce e la mette in circolazione? Se avesse un’azienda che coltiva varianti di Coronavirus le rilascerebbe nell’ambiente o le terrebbe al sicuro nei suoi laboratori? Le contraddizioni di Altman sono straordinarie.Chiede leggi riguardo l’intelligenza artificialeal Congresso americano,critica le leggi dell’Unione Europeasempre riguardo l’intelligenza artificiale e dichiara chese entreranno in vigoreOpenAIsi ritirerà dall’Europa, solo per poismentirsi 2 giornidopo, affermando che resterà in Europa. Il secondo argomento va comunque sottolineato. La lettera firmata da Altman e gli altri è statarealizzata da un’organizzazione non profitdi San Francisco, ilCenter for AI Safety, chenon rivela i nomi dei suoi finanziatori, non ha un minimo di trasparenza, non ha una storia intellettuale particolare,salvo che si dice che si occupi di fare un po’ di lobby. Insomma, non stiamo parlando di un’istituzione di ricerca che ha costruito la sua credibilità lavorando nel tempo, ma semplicemente facendosi notare con qualche exploit comunicativo. Il terzo argomento riguarda le motivazioni di queste assurde vicende. Un’ipotesi è che con i fumogeni del“rischio di estinzione dell’umanità”le aziende dell’intelligenza artificiale voglianodistrarre i sistemi politici che stanno regolamentando il loro businesscon l’obiettivo di ridurre l’impegno antitrust contro questi oligopolisti dell’intelligenza artificiale, da Microsoft a Google, togliere dal dibattito riguardo le nuove regole relative all’AI questioni come le infrazioni sulla privacy e il copyright commesse da queste aziende, le responsabilità dei produttori di intelligenza artificiale nella diffusione di disinformazione e cybercriminalità e altri rischi individuati dalla Commissione europea. Insomma, l’idea sarebbe quella disuggerire ai politici che è meglio lasciare lavorare liberamente queste megaaziendedell’intelligenza artificiale che si presentano come le più affidabili organizzazioni per gestire un fenomeno tanto “pericoloso”. Leinnovazioninormative che stanno emergendo grazie al lavoro della Commissione europea sono ben più intelligenti di questa. Sono orientate agestire i diversi livelli di rischio dell’intelligenza artificiale. Strategicamente, conducono aaumentare la trasparenza dellatecnologia.In generale, si stanno elaborando idee innovative come l’obbligo di etichettare ogni prodotto dell’intelligenza artificiale in modo che i cittadinisappiano riconoscere la sua origine,il divieto di far prendere all’intelligenza artificialedecisioni che riguardano umanisenza che ci sia un umano in una posizione di controllo, lo sviluppo di un processo diverifica della rischiosità di un prodottodi AI prima che questo sia rilasciato sul mercato. Un po’ come avviene nella farmaceutica.Testarei sistemi di riconoscimento delle immagini quando usati dalle polizie per individuare automaticamente i volti dei terroristi, per esempio, potrebbe essere una buona pratica per limitare i falsi positivi. La discussione intorno l’intelligenza artificialepotrebbe migliorare se ci si concentra su proposte come questa. Il fumo negli occhi lanciato dai produttori di AI è un’altra forma dimanipolazione del dibattito.E dimostra che i rischi di questa tecnologia non sono propri della tecnologia. Irischisono causati dallamentalità, dallepratiche, dallaprogettualità, dall’ideologia e dagliinteressidelle persone che sviluppano l’intelligenza artificiale. Sono queste persone i responsabili dei rischi. Sono peraltro gli umani a essere responsabili di comprenderla,imparare a usarla,evitare di cadere nelle trappole interpretative che quella tecnologia non cessa di distribuire nella rete. L’intelligenza artificiale non è aliena: è originata dagli umani e può essere una grande occasione di migliorare la vita, se gliumanila progettano e la usano bene.

Redazione

Recent Posts

Perché le slot sono il gioco più universale del casinò

In ogni angolo del mondo, dai casinò scintillanti di Las Vegas alle piattaforme online accessibili…

2 settimane ago

È stata presentata la Biennale Architettura 2025

  Anche se manca ancora un anno, professionisti e gli appassionati del settore si preparano…

2 mesi ago

Roma addio, da oggi il Lazio e l’Italia non saranno più le stesse | I cittadini già insorgono

Da questo momento l'Italia non sarà più la stessa, dobbiamo dire definitivamente addio a Roma…

2 mesi ago

Addio a bonifici e pagamenti tracciati, si torna al baratto: olio EVO e pomodori per i pasti di un mese | Avviene proprio in Italia

Altro che bonifici e pagamenti tracciati, adesso i pagamenti avvengono con il baratto e la…

2 mesi ago

Kate porta via i suoi figli da Palazzo: un taglio netto con il passato | Ecco dove abiteranno

Kate ha preso la sua decisione e ha portato i suoi figli lontano da palazzo,…

2 mesi ago

Gli aerei in profonda crisi, arriva il loro concorrente numero uno: il treno che sembra uno yacht e che collega l’Italia all’Europa

Se il comparto aereo è in netta crisi, sono sempre di più coloro che decidono…

2 mesi ago