Futuro

Ragionamenti artificiali

I nuovi annunci di Meta e OpenAI alzano ancora l’asticella della competizione nell’automazione cognitiva. Meglio togliere di mezzo le parole ambigue. E studiare a fondo il funzionamento reale di queste tecnologie
Tempo di lettura 5 min lettura
11 aprile 2024 Aggiornato alle 09:05

Gli osservatori sono convinti che Claude 3 di Anthropic sia ormai migliore di GPT-4 di OpenAI. Ma naturalmente, la competizione non è finita qui. In vista ci sono innovazioni notevoli. Meta e OpenAI annunciano che i loro prossimi modelli saranno capaci di “ragionare”, “pianificare”, “memorizzare”. Meta dice che il suo Llama 3 arriverà nelle prossime settimane mentre OpenAI dice che l’uscita di GPT-5 è prevista molto presto.

Che cosa significa che quei modelli saranno capaci di ragionare, pianificare, memorizzare? Di certo, l’uso di queste parole rende questi annunci molto attraenti. Elon Musk, pochi giorni fa, peraltro, aveva lanciato la sua ennesima predizione: entro il 2025 uscirà un’intelligenza artificiale più intelligente di qualsiasi umano. La gara per conquistare l’attenzione del mondo si gioca da sempre tra chi la spara più grossa e chi fa il prodotto migliore. Non sempre questi due aspetti delle attività competitive coincidono. Ma se si cerca di comprendere che cosa esattamente questi annunci significhino occorre attraversare alcune cortine fumogene.

Bisogna innanzitutto comprendere di quale competizione si sta parlando. La prima e più importante in termini economici è certamente quella che serve a convincere i mercati finanziari del fatto che le aziende stanno raggiungendo una posizione di leadership tecnologica che permetterà loro di consolidare la propria posizione sul mercato e accumulare profitti giganteschi. A questo livello, l’importante è costruire una narrativa adatta a far credere di poter ottenere il risultato. Non importa se si usano parole ambigue o se si fanno annunci troppo ambiziosi: l’importante è che siano verosimili e che convincano gli analisti finanziari che ci sia un grande avvenire per le aziende che le pronunciano.

La verosimiglianza è tanto più solida ovviamente quanto più i prodotti sono sorprendentemente buoni: il caso di ChatGPT insegna che la sorpresa positiva c’è stata, quindi i difetti sono stati perdonati, il successivo rallentamento della crescita è stato considerato fisiologico, il rilancio è ritenuto credibile. La narrativa di Meta sull’intelligenza artificiale, anche se meno confortata da fatti altrettanto clamorosi, si è dimostrata in grado di fare uscire l’ex Facebook dalla crisi profonda seguita alla scelta di concentrare le risorse dell’azienda sull’altra, fumosa, vecchia narrativa del metaverso. Per converso la prudenza negli annunci di Google si è dimostrata tale da non consentire all’azienda che ha la storia più solida di innovazioni nell’intelligenza artificiale di valorizzare quella competenza anche nei valori azionari.

Ma come sta andando l’altra competizione, quella sui prodotti e le loro applicazioni? Questa questione è tutt’altro che facile da leggere. L’intelligenza artificiale è usata davvero dalle aziende per questioni che vanno dalla manutenzione predittiva alla cybersecurity, dalla valorizzazione degli archivi di dati alla modellizzazione delle attività più complesse di relazione con il mercato. E naturalmente serve alle piattaforme per gli algoritmi di raccomandazione che governano il comportamento degli utenti.

Invece, i large language models vengono ancora presi con una certa prudenza, perché commettono errori e non sono completamente affidabili. Anche perché in fondo non fanno che prevedere (molto bene) la prossima parola. Il progetto di Meta è di creare modelli che sappiano invece ragionare, memorizzare, pianificare. Significa dotarli di qualcosa di più controllato e verificabile. Se si aggiungono moduli logici a un modello linguistico si possono ottenere straordinari e superare la diffidenza sull’affidabilità delle intelligenze artificiali: il punto è però che la correttezza logica di un ragionamento si deve provare, non può semplicemente essere affermata, altrimenti ci si ritrova al punto di partenza e non si fa un passo avanti nella credibilità dei sistemi.

Le soluzioni tecnologiche per fare questo sono allo studio e la scienza che le prova a produrle è meravigliosa: ma il suo prodotto non si può più presentare come quell’oracolo un po’ misterioso che sembra nascondersi dietro l’eloquenza delle tecnologie come ChatGPT. Un ragionamento logico è anche controllabile: o non è logico.

Certo, è sempre divertente notare come le aziende tecnologiche dichiarino che il loro nuovo prodotto è eccezionale e migliore del precedente, senza sorridere del paradosso che consiste nel fatto che quando quel prodotto precedente era uscito era stato presentato come se fosse eccezionale e migliore del precedente ancora. Ma questi avanzamenti annunciati sono molto attraenti. Potrebbero cambiare i “pappagalli elettronici” che hanno tanto conquistato l’attenzione negli ultimi 18 mesi e farli diventare strumenti molto più utili e trasparenti.

Questo non ne farà degli pseudo cervelli umani: li renderà piuttosto delle super-mega calcolatrici. Le narrative antropomorfe sono molto buone per l’apparato mediatico-finanziario ma meno per le aziende e per le persone che devono produrre e usare quelle tecnologie comprendendone in modo pieno il valore.

Leggi anche
Ambiente
di Antonio Pellegrino 3 min lettura
Intelligenza artificiale
di Sofia Schiappa 3 min lettura