Intelligenza artificiale, tra scienza e business

Intelligenza artificiale, tra scienza e business

 

In quasi settant’anni di storia, l’intelligenza artificiale non aveva mai goduto di tantaattenzione,risorse finanziarieeconcrete prospettive applicative. In questi sette decenni, i suoi pionieri erano costretti ad attraversare periodi di magra davvero bui, alternati a esplosioni di aspettative, spesso deluse. Eppure continuavano a lavorare, nella convinzione che nell’intelligenza artificiale ci fosse qualcosa di straordinariamente importante per l’umanità: dalla possibilità diautomatizzarequalsiasi operazione noiosa e faticosa all’opportunità dicostruire strumenti di previsione e valutazione delle informazionisuperiori a quelli esistenti. Ma proprio adesso che le fatiche di questi pionieri sembrano giungere al successo, molti grandi studiosi dell’intelligenza artificiale stanno prendendo le distanze dalla loro opera. L’ultimo ad avere conquistato la cronaca èGeoffrey Hinton, grande studioso delle reti neurali che da un decennio lavorava aGoogle. Pochi giorni prima, Yoshua Benjio e Gary Marcus avevano firmato una lettera critica insieme a più di altri mille leader del settore e, con un’iniziativa separata, avevano fatto qualcosa di simile anche molti aderenti all’Association for the Advancement of Artificial Intelligencecompreso Eric Horvitz, chief scientist officer aMicrosoft. Per comprendere il fenomeno occorre chiarire qual è il punto. Le preoccupazioni di questi studiosi sono diverse: ilrischio di una massiccia diffusione di notizie false,l’automazione di molti lavori,la moltiplicazione di attacchi a risorse informatiche,l’uso bellico dell’intelligenza artificiale, e così via. Ma queste persone non ne fanno tanto una questione di etica: in effetti, questi studiosi non si erano fatti molti problemi nei mesi scorsi, quando le grandi compagnie digitali comeTwitter(X.Corp) eFacebook(Meta),Google(Alphabet) eMicrosoft, avevano licenziato i loro esperti di etica dell’intelligenza artificiale. In realtà, gli studiosi dei quali stiamo parlando fanno una critica profonda al modello di sviluppo dell’intelligenza artificiale. L’esplosione delle loro critiche dipende da una valutazione negativa intorno agli effetti della competizione innescata principalmente daOpenAI, controllata daMicrosoft, eGoogle, che ha recentemente incorporatoDeepMind. In particolare, il rilascio diChatGPTda parte diOpenAI, nel contesto del successo di diverse soluzioni di intelligenza artificiale generativa, ha spostato la traiettoria dello sviluppo. I 100 milioni di persone che hanno scelto di usare ChatGPT nei primi due mesi dal rilascio hanno avuto un impatto senza precedenti sulla competizione nel settore. Google, che ci andava con i piedi di piombo nell’esporre al grande pubblico la sua intelligenza artificiale, ha dovuto smettere la strategia della prudenza e ha deciso di mettere in campo tutta la sua potenza.La velocità di rilascio di novità non consente di valutarne le conseguenze. La prima e più evidente preoccupazione è lamoltiplicazione dei testi e immagini false, con una perdita di affidabilità dei motori di ricerca: «Non saremo più sicuri di sapere che cosa è vero e che cosa è falso», ha detto Hinton. A questo punto occorre prendere atto che ci sonodue modelli di sviluppoper l’intelligenza artificiale. Il primo è quello chesi concentra sulla concorrenza tra aziende: in questo contesto l’intelligenza artificiale è considerata una tecnologia controllata da chi l’ha realizzatae quindi sviluppata nell’ambito della competizione tra aziende. I concorrenti devono andare veloci, conquistare quote di mercato, convincere della credibilità delle loro capacità, attirare investimenti e farsi adottare dagli utenti. In questo contesto, tutto ciò che riguarda gli effetti collaterali dell’uso di quelle tecnologie viene considerato meno prioritario. Il secondo modello di sviluppo non considera l’intelligenza artificiale tanto come una tecnologia, ma in un certo sensola vede dal punto di vista della ricerca scientifica. In questo contesto, gli studiosi lavorano in un atteggiamento di collaborazione, si scambiano conoscenze, pubblicano risultati sperimentali, aumentano la consapevolezza della società sulla struttura della conoscenza emergente dai loro studi. Se c’è stato un difetto di questo approccio è stato probabilmente nell’iperspecialismocon il quale è stato portato avanti storicamente. Ma ultimamenteè invece l’interdisciplinarietà a condurre la ricerca. Perché le relazioni tra intelligenza artificiale e la società sono diventate un terreno di studio prioritario. È probabile che il modello concorrenziale sia più rischioso di quello collaborativo. E se si vuole dare seguito alle preoccupazioni manifestate degli studiosi che negli ultimi tempi si sono dissociati dal modello di sviluppo attuale occorre rilanciare l’approccio scientifico all’intelligenza artificiale. Ancora una volta:oltre che un problema etico è anche e soprattutto un problema epistemologico.