Futuro

Intelligenza artificiale e ricerca: un binomio sicuro?

Aumentano le applicazioni dell’AI nella ricerca scientifica: i modelli di machine learning aiutano ad analizzare grandi quantità di dati e a fornire risultati in poco tempo. Un contributo che necessita però di attenzione e regolamenti
Tempo di lettura 5 min lettura
21 settembre 2023 Aggiornato alle 17:00

Le invenzioni che hanno cambiato la storia per sempre formano un elenco enorme: si va dalla ruota nel 4000-3000 a.C., passando la stampa a caratteri mobili del 1455, e poi la luce elettrica, il telefono e l’automobile negli ultimi decenni del ‘800, fino ai tempi più recenti dominati dall’esplosione di Internet, dei personal computer e degli smartphone.

A questa lista potremmo - e forse dovremmo - aggiungere anche l’intelligenza artificiale incarnata in tantissime applicazioni e modelli, uno fra tutti il chatbot di OpenAI ChatGPT, che ha visto il suo vero decollo proprio nel 2022.

Tuttavia, il concetto di intelligenza artificiale non è del tutto nuovo.

Già il matematico britannico Alan Turing nel 1950 ipotizzava che anche le macchine avrebbero potuto usare informazioni e ragionamento come gli umani.

Un’intuizione che cresce nel tempo e prende per la prima volta il nome di intelligenza artificiale grazie a John McCarthy 6 anni dopo, in un convegno presso il Darthmouth College.

La ritroviamo nel 1965 in Eliza di Joseph Weizenbaum - scienziato del Massachusetts Institute of Technology (Mit) -, uno fra i primi programmi interattivi capaci di sostenere un dialogo in inglese su svariati argomenti.

Avanti veloce nella storia, l’intelligenza artificiale crescerà sempre di più all’interno del mondo scientifico, insieme al concetto chiave di deep learning - la capacità delle macchine di apprendere da sole - fino alla commercializzazione delle prime tecnologie di assistenza digitale negli smartphone di tutto il mondo.

La crescente popolarità dell’AI ha generato un sempre più acuto timore verso la possibilità, paventata anche da letteratura e cinematografia distopica, che il suo massiccio utilizzo potesse sostituire gli esseri umani nel mondo del lavoro e acquisire talmente tanto potere e autonomia da diventare ingestibile. a oggi non sappiamo come andrà a finire, tra i professionisti preoccupati di perdere l’impiego (specie dopo l’arrivo di tecnologie generative capaci di produrre testi e immagini in poco tempo) e chi invece cerca di gestire il fenomeno come un nuovo attrezzo del mestiere.

In questa seconda categoria possiamo includere gran parte dell’attuale mondo scientifico.

La sua capacità di elaborare grandissime quantità di dati in poco tempo ha reso l’AI un alleato instancabile della ricerca, grazie al quale studiosi e scienziati possono velocizzare i tempi e ottenere maggiori risultati da confrontare e analizzare.

In questo modo, un modello di intelligenza artificiale non sostituisce il lavoro di un essere umano, ma lo coadiuva sbrigando in minor tempo i processi più lunghi e ripetitivi, spesso con risultati estremamente proficui.

È il caso di due importanti studi del Mit, che tra 2019 e 2023 sono riusciti a scoprire due nuovi antibiotici, l’alicina e l’abaucina, proprio grazie all’utilizzo di modelli di apprendimento automatico capaci di setacciare fra milioni di dati per scoprire quali strutture chimiche fossero più efficaci per danneggiare alcuni batteri.

L’intelligenza artificiale ha dunque accelerato il processo di ricerca nel suo complesso, permettendo agli studiosi di avere fra le mani in pochissimo tempo tutto il materiale necessario per contribuire in maniera significativa alla lotta contro la resistenza ai farmaci, con potenziali benefici per l’intero mondo della medicina.

Una novità che l’Europa, Italia compresa, non intende farsi sfuggire.

A novembre 2022 è stato inaugurato Leonardo, il quarto nella Top 500 dei supercomputer più veloci al mondo, situato presso il Tecnopolo di Bologna e capace di fornire la potenza computazionale modellare e contribuire a comprendere i fenomeni più complessi, conducendo più esperimenti con velocità maggiore, con vantaggi sia in termini di tempo che di denaro.

Ma il mondo della fisica, della biologia e di tutte le scienze dure è pieno di applicazioni di AI. Fra i modelli più famosi spicca AlphaFold, sviluppata nel 2021 da Google Deepmind, che in soli 18 mesi di lavoro è stata capace di mappare il 98,5% delle proteine utilizzate dagli esseri umani, costruendo un vero e proprio database di oltre 200 milioni di strutture proteiche, già utilizzato da più di 1,2 milioni di ricercatori.

Una scoperta sensazionale, vista anche l’enorme difficoltà che ammanta la previsione della struttura delle proteine all’interno del mondo scientifico.

Gli algoritmi di deep learning trovano utilizzo anche nel settore meteorologico, in quanto capaci di costruire modelli climatici identificando parametri ancora impossibili da quantificare con precisione per l’essere umano.

In questo modo, oltre a fornire previsioni sempre più accurate, l’AI può dimostrarsi un valido strumento per intuire potenziali pericoli climatici e aiutare la popolazione a prepararsi a eventi meteorologici estremi come uragani e siccità.

Va detto che i benefici dell’utilizzo di AI nel mondo della scienza fanno il paio con alcuni elementi negativi che l’essere umano deve essere capace di gestire.

L’apprendimento automatico (o machine learning) consiste nel nutrire un algoritmo con dati e letteratura di ricerca del passato, mettendolo così in condizione di imparare, riassumere e costruire ipotesi future. Nel caso in cui i ricercatori addestrino il loro algoritmo con dati sbagliati o non correttamente inseriti, c’è il rischio che le risposte dell’AI contengano errori e distorsioni della realtà.

Il professore di Princeton Arvind Narayanan e il suo dottorando Sayash Kapoor, dopo aver esaminato varie applicazioni di intelligenza artificiale, hanno individuato errori in 329 studi appartenenti a diverse aree scientifiche.

L’intelligenza artificiale presenta ancora tanti limiti, soprattutto nell’immaginare ciò che potrebbe risiedere oltre i limiti di ciò che è già noto. Sono tecnologie avanzate e capaci di fare molto, ma che dovranno subire ancora molti aggiornamenti e correzioni prima di rappresentare l’ennesima e forse più importante scoperta del nuovo millennio, sempre che ricercatori e specialisti si mostrino disposti a utilizzarli e le istituzioni investano in competenze e formazione, senza mai dimenticarsi del lavoro umano.

Leggi anche
AI
di Fabrizio Papitto 2 min lettura