Futuro

Il paradosso dei rischi dell’intelligenza digitale

Altra lettera di denuncia per i pericoli dell’automazione cognitiva, firmata da chi la costruisce: il contenuto è così allarmante da apparire quasi falso. Ma non deve distrarre dai principali obiettivi di un’innovazione legislativa
Credit: 8machine
Tempo di lettura 4 min lettura
1 giugno 2023 Aggiornato alle 06:30

E basta! Ennesima uscita pubblica dei costruttori di intelligenza artificiale che ne denunciano i pericoli. Questa volta, alzano ulteriormente la voce e dichiarano che la tecnologia può portare addirittura all’estinzione dell’umanità.

Sam Altman il ciarliero fondatore di OpenAI, ma anche persone più serie come Demis Hassabis, fondatore di DeepMind, pare, hanno firmato una lettera pubblicata dal Center for AI Safety che denuncia il rischio più grave possibile, dal punto di vista degli umani, collegato allo sviluppo dell’intelligenza artificiale generativa.

Ci sono molti argomenti da segnalare in proposito.

Il primo è il più evidente. Se l’intelligenza artificiale è come una pandemia e può portare all’estinzione dell’umanità, perché Sam Altman la produce e la mette in circolazione? Se avesse un’azienda che coltiva varianti di Coronavirus le rilascerebbe nell’ambiente o le terrebbe al sicuro nei suoi laboratori? Le contraddizioni di Altman sono straordinarie. Chiede leggi riguardo l’intelligenza artificiale al Congresso americano, critica le leggi dell’Unione Europea sempre riguardo l’intelligenza artificiale e dichiara che se entreranno in vigore OpenAI si ritirerà dall’Europa, solo per poi smentirsi 2 giorni dopo, affermando che resterà in Europa.

Il secondo argomento va comunque sottolineato. La lettera firmata da Altman e gli altri è stata realizzata da un’organizzazione non profit di San Francisco, il Center for AI Safety, che non rivela i nomi dei suoi finanziatori, non ha un minimo di trasparenza, non ha una storia intellettuale particolare, salvo che si dice che si occupi di fare un po’ di lobby. Insomma, non stiamo parlando di un’istituzione di ricerca che ha costruito la sua credibilità lavorando nel tempo, ma semplicemente facendosi notare con qualche exploit comunicativo.

Il terzo argomento riguarda le motivazioni di queste assurde vicende. Un’ipotesi è che con i fumogeni del “rischio di estinzione dell’umanità” le aziende dell’intelligenza artificiale vogliano distrarre i sistemi politici che stanno regolamentando il loro business con l’obiettivo di ridurre l’impegno antitrust contro questi oligopolisti dell’intelligenza artificiale, da Microsoft a Google, togliere dal dibattito riguardo le nuove regole relative all’AI questioni come le infrazioni sulla privacy e il copyright commesse da queste aziende, le responsabilità dei produttori di intelligenza artificiale nella diffusione di disinformazione e cybercriminalità e altri rischi individuati dalla Commissione europea. Insomma, l’idea sarebbe quella di suggerire ai politici che è meglio lasciare lavorare liberamente queste mega aziende dell’intelligenza artificiale che si presentano come le più affidabili organizzazioni per gestire un fenomeno tanto “pericoloso”.

Le innovazioni normative che stanno emergendo grazie al lavoro della Commissione europea sono ben più intelligenti di questa. Sono orientate a gestire i diversi livelli di rischio dell’intelligenza artificiale. Strategicamente, conducono a aumentare la trasparenza della tecnologia. In generale, si stanno elaborando idee innovative come l’obbligo di etichettare ogni prodotto dell’intelligenza artificiale in modo che i cittadini sappiano riconoscere la sua origine, il divieto di far prendere all’intelligenza artificiale decisioni che riguardano umani senza che ci sia un umano in una posizione di controllo, lo sviluppo di un processo di verifica della rischiosità di un prodotto di AI prima che questo sia rilasciato sul mercato. Un po’ come avviene nella farmaceutica. Testare i sistemi di riconoscimento delle immagini quando usati dalle polizie per individuare automaticamente i volti dei terroristi, per esempio, potrebbe essere una buona pratica per limitare i falsi positivi.

La discussione intorno l’intelligenza artificiale potrebbe migliorare se ci si concentra su proposte come questa. Il fumo negli occhi lanciato dai produttori di AI è un’altra forma di manipolazione del dibattito. E dimostra che i rischi di questa tecnologia non sono propri della tecnologia. I rischi sono causati dalla mentalità, dalle pratiche, dalla progettualità, dall’ideologia e dagli interessi delle persone che sviluppano l’intelligenza artificiale. Sono queste persone i responsabili dei rischi. Sono peraltro gli umani a essere responsabili di comprenderla, imparare a usarla, evitare di cadere nelle trappole interpretative che quella tecnologia non cessa di distribuire nella rete.

L’intelligenza artificiale non è aliena: è originata dagli umani e può essere una grande occasione di migliorare la vita, se gli umani la progettano e la usano bene.

Leggi anche
Intelligenza artificiale
di Luca De Biase 4 min lettura
AI
di Antonio Pellegrino 3 min lettura