IA, gli esperti avvertono sul «rischio di estinzione»

IA, gli esperti avvertono sul «rischio di estinzione»

 

“Mitigareil rischio di estinzione causato dall’IAdovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”. È quanto recita la laconicadichiarazione di 22 parolediffusail 30 maggio dalCenter for AI Safety(Cais), un’organizzazione no-profit con sede a San Francisco, e sottoscritta da oltre 350 dirigenti, ricercatori e ingegneri che si occupano di intelligenza artificiale. Tra i firmatari ancheSam Altman, Ceo diOpenAI, oltre aDemis Hassabis, Amministratore delegato diGoogle DeepMind, eDario Amodei, cofondatore e a della startupAnthropic. I toni apocalittici non sono una novità. In un articoloapparsoa fine marzo sul Time, il teorico dell’IAEliezer Yudkowsky, cofondatore delMachine Intelligence Research Institute, ha utilizzato le stesse parole spingendosi a sostenere che se non spegniamo le macchine «moriremo tutti». Yudkowsky è tra le personalità che hanno aderito all’appello insieme ai “padrini” dell’IAGeoffrey HintoneYoshua Bengio, che nel 2018vinserocon Yann LeCun ilPremio Turing, considerato il Nobel dell’informatica, per il loro lavoro pioneristico sulle reti neurali artificiali e il deep learning, i modelli alla base dell’intelligenza artificiale generativa. Yann LeCunè l’attuale Chief AI Scientist diMeta, ma il Cais hafatto saperein una nota del 30 maggio che i leader della società guidata da Mark Zuckerbergnon hanno firmato il documento. La lettera aperta segue quellapubblicataa marzo di quest’anno, nella quale oltre 31.000 persone – inclusoElon Muske lo stesso LeCun – hanno chiesto di “sospendere immediatamente per almeno 6 mesil’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4”. All’inizio del mese Hinton si èdimesso daGoogle, dove lavorava da oltre 10 anni in seguito all’acquisizionediDNNresearchnel marzo 2013,dichiarandodi aver abbandonato l’azienda «per poter parlare dei pericoli dell’intelligenza artificiale». «Viviamo in tempi molto incerti – avevacommentatoin quell’occasione suTwitter– È possibile che mi sbagli totalmente sul fatto che l’intelligenza digitale ci sorpassi. Nessuno sa davvero quale sia il motivo per cui dovremmo preoccuparciora». I governi, intanto, stanno cercando di correre ai ripari. L’11 maggio il Parlamento europeo ha dato il primo via libera all’AI Act, unapropostadi legge che ha l’obiettivo di “garantire unosviluppo umano-centrico ed eticodell’intelligenza artificiale”. Il regolamento europeo prevede la classificazione dei sistemi di IA in base al rischio secondo una scala che va da “basso” a “inaccettabile”. In quest’ultima categoria rientrerebbero, e sarebbero pertanto vietati, i sistemi diriconoscimento biometrico, dipolizia predittivae diriconoscimento delle emozionida parte delle forze dell’ordine. La settimana prima, la Casa Bianca avevaconvocatoi principali leader dell’IA annunciando contestualmente una serie di misure come l’implementazione dellaCarta dei diritti dell’AIe dell’AI Risk Management Framework, oltre a un investimento da140 milioni di dollaria favore di 7 nuovi centri di ricerca per l’intelligenza artificiale. Domani Altmanincontreràla presidente della Commissione europeaUrsula von der Leyen. «Se questa tecnologia va storta, può andare molto storta», ha affermato il padre diChatGPTchiamato atestimoniareil 16 maggio davanti al Congresso degli Stati Uniti. Nel corso dell’audizione, Altman ha auspicato la creazione di un’agenzia governativa o su scala più ampia che conceda i sistemi diintelligenza artificiale in licenzae abbia il potere di «togliere quella licenza e garantire il rispetto degli standard di sicurezza».