Futuro

AI, Biden: «enorme potenziale, enorme pericolo»

Per la prima volta, il Presidente degli Usa ha convocato alla Casa Bianca le aziende leader dell’intelligenza artificiale per discutere i possibili rischi
Credit: Nathan Howard - Pool Via Cnp/CNP via ZUMA Press Wire
Fabrizio Papitto
Fabrizio Papitto giornalista
Tempo di lettura 4 min lettura
8 maggio 2023 Aggiornato alle 12:00

«Quello che state facendo ha un enorme potenziale e un enorme pericolo»: lo ha dichiarato il presidente degli Stati Uniti Joe Biden che il 4 maggio ha convocato alla Casa Bianca gli amministratori delegati di Google, Microsoft, OpenAI (la madre di ChatGPT) e della startup di San Francisco Anthropic.

Per la prima volta i principali leader dell’intelligenza artificiale si sono riunti intorno al tavolo della Roosvelt Room, nella West Wing della Casa Bianca, dove hanno discusso per circa 2 ore delle preoccupazioni legate all’AI.

“Per realizzare i benefici che potrebbero derivare dai progressi nell’AI – ha affermato la Casa Bianca in una nota ufficiale – è imperativo mitigare i rischi attuali e potenziali che l’intelligenza artificiale pone agli individui, alla società e alla sicurezza nazionale. Questi includono rischi per la sicurezza, i diritti umani e civili, la privacy, il lavoro e i valori democratici”.

Rischi che all’inizio del mese hanno portato Geoffrey Hinton, spesso citato come “il padrino” dell’intelligenza artificiale, ad abbandonare il suo ruolo in Google. “Me ne sono andato per poter parlare dei pericoli dell’intelligenza artificiale - ha dichiarato Hinton in un tweet.

“Viviamo in tempi molto incerti – ha aggiunto in un altro tweet – È possibile che mi sbagli totalmente sul fatto che l’intelligenza digitale ci sorpassi. Nessuno sa davvero quale sia il motivo per cui dovremmo preoccuparci ora”.

In concomitanza del vertice sono state presentate una serie di misure da mettere in campo nel prossimo futuro per scongiurare queste derive. Come la messa a punto della Carta dei diritti dell’AI presentata l’anno scorso, o l’implementazione dell’AI Risk Management Framework, un quadro volontario di gestione del rischio rilasciato a gennaio dal National Institute of Standards and Technology (Nist) del Dipartimento del Commercio degli Stati Uniti.

«Il settore privato ha la responsabilità etica, morale e legale di garantire la sicurezza e la protezione dei propri prodotti - e - ogni azienda deve rispettare le leggi esistenti per proteggere il popolo americano», ha dichiarato Kamala Harris, vicepresidente degli Stati Uniti, a margine dell’incontro.

Nel corso della stessa mattinata, la National Science Foundation degli Stati Uniti ha inoltre annunciato un investimento da 140 milioni di dollari da destinare all’istituzione di 7 nuovi centri nazionali di ricerca per l’intelligenza artificiale.

«Questi investimenti federali strategici faranno avanzare l’infrastruttura e l’innovazione dell’AI americana, in modo che l’intelligenza artificiale possa aiutare ad affrontare alcune delle maggiori sfide che dobbiamo affrontare, dal cambiamento climatico alla salute», ha commentato Arati Prabhakar, direttrice dell’Ufficio per le politiche scientifiche e tecnologiche della Casa Bianca.

Entro l’estate, infine, l’Ufficio per la gestione e il bilancio della White House rilascerà per un commento pubblico una bozza di orientamento politico relativa all’utilizzo dei sistemi di intelligenza artificiale da parte del Governo federale.

In un’editoriale pubblicato sul New York Times, la presidente della Federal Trade Commission Lina Khan ha paragonato lo sviluppo dell’intelligenza artificiale alla rivoluzione sociale rappresentata dalle piattaforme dell’era Web 2.0 (come Facebook, Twitter, TikTok) e dalla loro erosione dello Stato di diritto rappresentata dalla vendita dei nostri dati personali.

“La traiettoria dell’era del Web 2.0 non era inevitabile – ha scritto Kahn – ma è stata invece modellata da un’ampia gamma di scelte politiche. E ora affrontiamo un altro momento di scelta. Man mano che l’uso dell’intelligenza artificiale diventa più diffuso, i funzionari pubblici hanno la responsabilità di garantire che questa storia appresa duramente non si ripeta”.

Leggi anche
Innovazione
di Luca De Biase 4 min lettura