Ragionamenti artificiali

 

Gli osservatori sono convinti cheClaude 3diAnthropicsia ormai migliore diGPT-4diOpenAI. Ma naturalmente, la competizione non è finita qui. In vista ci sono innovazioni notevoli.Meta e OpenAI annunciano che i loro prossimi modelli saranno capaci di “ragionare”, “pianificare”, “memorizzare”.Meta dice che il suoLlama 3arriverà nelle prossime settimane mentre OpenAI dice che l’uscita diGPT-5è prevista molto presto. Che cosa significa che quei modelli saranno capaci di ragionare, pianificare, memorizzare? Di certo, l’uso di queste parole rende questi annunci molto attraenti.Elon Musk, pochi giorni fa, peraltro, aveva lanciato la sua ennesima predizione:entro il 2025 uscirà un’intelligenza artificiale più intelligente di qualsiasi umano.La gara per conquistare l’attenzione del mondo si gioca da sempre tra chi la spara più grossa e chi fa il prodotto migliore. Non sempre questi due aspetti delle attività competitive coincidono. Ma se si cerca di comprendere che cosa esattamente questi annunci significhino occorre attraversare alcune cortine fumogene. Bisogna innanzitutto comprendere diquale competizione si sta parlando.La prima e più importante in termini economici è certamente quella che serve a convincere i mercati finanziari del fatto che le aziende stanno raggiungendo una posizione dileadership tecnologicache permetterà loro di consolidare la propria posizione sul mercato e accumulare profitti giganteschi. A questo livello, l’importante è costruire unanarrativa adatta a far credere di poter ottenere il risultato.Non importa se si usano parole ambigue o se si fanno annunci troppo ambiziosi: l’importante è che siano verosimili e che convincano gli analisti finanziari che ci sia un grande avvenire per le aziende che le pronunciano. La verosimiglianza è tanto più solida ovviamente quanto più i prodotti sono sorprendentemente buoni: il caso diChatGPTinsegna che la sorpresa positiva c’è stata, quindi i difetti sono stati perdonati, il successivo rallentamento della crescita è stato considerato fisiologico, il rilancio è ritenuto credibile. La narrativa di Meta sull’intelligenza artificiale, anche se meno confortata da fatti altrettanto clamorosi, si è dimostrata in grado di fare uscire l’ex Facebook dalla crisi profonda seguita alla scelta di concentrare le risorse dell’azienda sull’altra, fumosa, vecchia narrativa delmetaverso. Per converso la prudenza negli annunci di Google si è dimostrata tale da non consentire all’azienda che ha la storia più solida di innovazioni nell’intelligenza artificiale di valorizzare quella competenza anche nei valori azionari. Ma come sta andando l’altra competizione, quellasui prodotti e le loro applicazioni?Questa questione è tutt’altro che facile da leggere. L’intelligenza artificialeè usata davvero dalle aziende per questioni che vanno dalla manutenzione predittiva allacybersecurity, dalla valorizzazione degli archivi di dati alla modellizzazione delle attività più complesse di relazione con il mercato. E naturalmente serve alle piattaforme per gli algoritmi diraccomandazioneche governano il comportamento degli utenti. Invece, ilarge language modelsvengono ancora presi con una certa prudenza, perché commettonoerrori e non sono completamente affidabili.Anche perché in fondo non fanno che prevedere (molto bene) la prossima parola. Il progetto di Meta è di crearemodelli che sappiano invece ragionare, memorizzare, pianificare.Significa dotarli di qualcosa di più controllato e verificabile. Se si aggiungono moduli logici a un modello linguistico si possono ottenere straordinari e superare la diffidenza sull’affidabilità delle intelligenze artificiali: il punto è però che la correttezza logica di un ragionamento si deve provare, non può semplicemente essere affermata, altrimenti ci si ritrova al punto di partenza e non si fa un passo avanti nella credibilità dei sistemi. Le soluzioni tecnologiche per fare questo sono allo studio e la scienza che le prova a produrle è meravigliosa: ma il suo prodotto non si può più presentare come quell’oracolo un po’ misterioso che sembra nascondersi dietro l’eloquenza delle tecnologie come ChatGPT. Un ragionamento logico è anche controllabile: o non è logico. Certo, è sempre divertente notare come le aziende tecnologiche dichiarino che il loro nuovo prodotto è eccezionale e migliore del precedente, senza sorridere del paradosso che consiste nel fatto che quando quel prodotto precedente era uscito era stato presentato come se fosse eccezionale e migliore del precedente ancora. Ma questi avanzamenti annunciati sono molto attraenti. Potrebbero cambiare i “pappagalli elettronici” che hanno tanto conquistato l’attenzione negli ultimi 18 mesi e farli diventare strumenti molto più utili e trasparenti. Questo non ne farà degli pseudo cervelli umani: li renderà piuttosto dellesuper-mega calcolatrici. Le narrative antropomorfe sono molto buone per l’apparato mediatico-finanziario ma meno per le aziende e per le persone che devono produrre e usare quelle tecnologie comprendendone in modo pieno il valore.