Futuro

Le regole dell’intelligenza artificiale

Anche gli Stati Uniti cominciano a produrre norme sull’automazione cognitiva. Per ridurre e gestire il rischio che questa tecnologia possa danneggiare le persone e le comunità
Credit: DeepMind
Tempo di lettura 4 min lettura
23 febbraio 2023 Aggiornato alle 06:30

Anche gli Stati Uniti si lanciano in un percorso di regolamentazione sull’intelligenza artificiale. E cominciano proponendo la versione 1.0 di un Artificial Intelligence Risk Management Framework, un sistema di indicazioni per la gestione dei rischi connessi alla produzione e all’utilizzo di intelligenza artificiale, prodotto dal National Institute of Standards and Technology (Nist) del Ministero del commercio.

Il Nist osserva che l’intelligenza artificiale pone rischi specifici e molto complessi da valutare.

I sistemi con intelligenza artificiale possono apprendere elaborando insiemi di dati che possono cambiare nel tempo, essere incompleti, o per certi versi inaffidabili, generando malfunzionamenti difficili da prevedere e generando incertezze profonde nell’affidabilità delle tecnologie.

I sistemi con intelligenza artificiale, del resto, sono usati in contesti complessi, sicché appare difficile comprendere il loro funzionamento e per evitare errori e manutenerne la qualità. Inoltre, i sistemi con intelligenza artificiale sono per natura socio-tecnici, il che rende il loro funzionamento soggetto alle dinamiche sociali e ai comportamenti umani.

«I rischi - e i benefici - dell’intelligenza artificiale possono emergere dall’interazione tra aspetti tecnici, combinati con fattori sociali e con altri sistemi tecnologici», scrive il Nist. «Quindi i sistemi con intelligenza artificiale possono amplificare, perpetuare, esacerbare, effetti indesiderati e ingiusti per le persone e le comunità». Per queste ragioni è necessario stabilire regole per allineare la progettazione e lo sviluppo di sistemi con intelligenza artificiale agli scopi e ai valori per i quali si intende utilizzarli».

I concetti chiave dell’”intelligenza artificiale responsabile”, dice il Nist, sono la centralità dell’umano, la responsabilità sociale, la sostenibilità.

«Comprendere e gestire i rischi dell’intelligenza artificiale aiuterà a produrre tecnologie delle quali la gente si fida». Sembra di leggere un testo di origine europea.

Gli americani sembravano lontani da tutto questo, fino a qualche tempo fa.

Cameron Kerry, ex capo del Nist, scrivendo per Brookings Institution, osserva che si tratta dell’avvio di una vera e propria policy americana sull’intelligenza artificiale. Che del resto può essere costituzionalmente affidata al Nist.

In Europa, la Commissione ha proposto da tempo una nuova regolamentazione dell’intelligenza artificiale basata appunto sui rischi di quella tecnologia, a loro volta classificati dall’Ocse in relazione alla loro profondità, durata, generalità dei soggetti coinvolti.

È il segno che una sorta di ideologia tecnologica imperante anche solo fino a un anno fa in America attraversa una fase di crisi.

Secondo quella ideologia, le nuove versioni delle tecnologie sono sempre migliori delle precedenti: perché non fanno che allargare le possibilità degli umani, dunque sono portatrici di potenziali miglioramenti per l’umanità. Ne consegue che il sistema dell’innovazione va lasciato libero. Casomai saranno poi le società a scegliere come usare le opportunità offerte dal progresso tecnologico.

Non è difficile vedere un parallelismo tra questa ideologia e il neoliberismo finanziario.

Secondo quella ideologia, l’idea europea di limitare i rischi di una diffusione incontrollata dell’automazione cognitiva era frutto di un pensiero perdente, contrario all’innovazione, destinato al fallimento.

Un nuovo paradigma sembra farsi strada, dunque. È un pensiero secondo il quale le conseguenze delle innovazioni tecnologiche possono essere pensate prima che facciano danni e possono essere guidate a perseguire il beneficio per la società: la qualità della convivenza, la sostenibilità. E soprattutto è un pensiero secondo il quale non è vero che la tecnologia è neutrale rispetto all’utilizzo che la società sceglie di farne: chi progetta, diffonde, adotta la tecnologia ha la sua parte di responsabilità.

Alla fine questo vale per le produzioni industriali che inquinano l’ambiente come per gli algoritmi di raccomandazione dei social network che favoriscono la radicalizzazione delle opinioni, contribuendo alla frammentazione della sfera pubblica. Se la narrativa del progresso ineluttabile, che si sviluppa seguendo una linea certa e dritta verso la produzione di miglioramenti per l’umanità, viene sostituita da un più credibile approccio ecologico, attento alla complessità delle relazioni tra i fenomeni, la società non perderà l’energia degli innovatori ma le illusioni prodotte dagli affabulatori.

Leggi anche
AI
di Fabrizio Papitto 2 min lettura