Futuro

Intelligenza artificiale, tra scienza e business

L’automazione cognitiva ha conquistato il centro della scena nello sviluppo digitale. Ma molti pionieri che l’hanno resa grande ora l’abbandonano, preoccupati dalle sue conseguenze. Perché?
Credit: Dynamic Wang
Tempo di lettura 5 min lettura
4 maggio 2023 Aggiornato alle 06:30

In quasi settant’anni di storia, l’intelligenza artificiale non aveva mai goduto di tanta attenzione, risorse finanziarie e concrete prospettive applicative.

In questi sette decenni, i suoi pionieri erano costretti ad attraversare periodi di magra davvero bui, alternati a esplosioni di aspettative, spesso deluse.

Eppure continuavano a lavorare, nella convinzione che nell’intelligenza artificiale ci fosse qualcosa di straordinariamente importante per l’umanità: dalla possibilità di automatizzare qualsiasi operazione noiosa e faticosa all’opportunità di costruire strumenti di previsione e valutazione delle informazioni superiori a quelli esistenti.

Ma proprio adesso che le fatiche di questi pionieri sembrano giungere al successo, molti grandi studiosi dell’intelligenza artificiale stanno prendendo le distanze dalla loro opera. L’ultimo ad avere conquistato la cronaca è Geoffrey Hinton, grande studioso delle reti neurali che da un decennio lavorava a Google. Pochi giorni prima, Yoshua Benjio e Gary Marcus avevano firmato una lettera critica insieme a più di altri mille leader del settore e, con un’iniziativa separata, avevano fatto qualcosa di simile anche molti aderenti all’Association for the Advancement of Artificial Intelligence compreso Eric Horvitz, chief scientist officer a Microsoft.

Per comprendere il fenomeno occorre chiarire qual è il punto. Le preoccupazioni di questi studiosi sono diverse: il rischio di una massiccia diffusione di notizie false, l’automazione di molti lavori, la moltiplicazione di attacchi a risorse informatiche, l’uso bellico dell’intelligenza artificiale, e così via. Ma queste persone non ne fanno tanto una questione di etica: in effetti, questi studiosi non si erano fatti molti problemi nei mesi scorsi, quando le grandi compagnie digitali come Twitter (X.Corp) e Facebook (Meta), Google (Alphabet) e Microsoft, avevano licenziato i loro esperti di etica dell’intelligenza artificiale.

In realtà, gli studiosi dei quali stiamo parlando fanno una critica profonda al modello di sviluppo dell’intelligenza artificiale. L’esplosione delle loro critiche dipende da una valutazione negativa intorno agli effetti della competizione innescata principalmente da OpenAI, controllata da Microsoft, e Google, che ha recentemente incorporato DeepMind.

In particolare, il rilascio di ChatGPT da parte di OpenAI, nel contesto del successo di diverse soluzioni di intelligenza artificiale generativa, ha spostato la traiettoria dello sviluppo.

I 100 milioni di persone che hanno scelto di usare ChatGPT nei primi due mesi dal rilascio hanno avuto un impatto senza precedenti sulla competizione nel settore.

Google, che ci andava con i piedi di piombo nell’esporre al grande pubblico la sua intelligenza artificiale, ha dovuto smettere la strategia della prudenza e ha deciso di mettere in campo tutta la sua potenza. La velocità di rilascio di novità non consente di valutarne le conseguenze.

La prima e più evidente preoccupazione è la moltiplicazione dei testi e immagini false, con una perdita di affidabilità dei motori di ricerca: «Non saremo più sicuri di sapere che cosa è vero e che cosa è falso», ha detto Hinton.

A questo punto occorre prendere atto che ci sono due modelli di sviluppo per l’intelligenza artificiale. Il primo è quello che si concentra sulla concorrenza tra aziende: in questo contesto l’intelligenza artificiale è considerata una tecnologia controllata da chi l’ha realizzata e quindi sviluppata nell’ambito della competizione tra aziende. I concorrenti devono andare veloci, conquistare quote di mercato, convincere della credibilità delle loro capacità, attirare investimenti e farsi adottare dagli utenti. In questo contesto, tutto ciò che riguarda gli effetti collaterali dell’uso di quelle tecnologie viene considerato meno prioritario.

Il secondo modello di sviluppo non considera l’intelligenza artificiale tanto come una tecnologia, ma in un certo senso la vede dal punto di vista della ricerca scientifica. In questo contesto, gli studiosi lavorano in un atteggiamento di collaborazione, si scambiano conoscenze, pubblicano risultati sperimentali, aumentano la consapevolezza della società sulla struttura della conoscenza emergente dai loro studi.

Se c’è stato un difetto di questo approccio è stato probabilmente nell’iperspecialismo con il quale è stato portato avanti storicamente. Ma ultimamente è invece l’interdisciplinarietà a condurre la ricerca. Perché le relazioni tra intelligenza artificiale e la società sono diventate un terreno di studio prioritario.

È probabile che il modello concorrenziale sia più rischioso di quello collaborativo. E se si vuole dare seguito alle preoccupazioni manifestate degli studiosi che negli ultimi tempi si sono dissociati dal modello di sviluppo attuale occorre rilanciare l’approccio scientifico all’intelligenza artificiale. Ancora una volta: oltre che un problema etico è anche e soprattutto un problema epistemologico.

Leggi anche
AI
di Fabrizio Papitto 2 min lettura
Intelligenza artificiale
di Luca De Biase 4 min lettura