Futuro

Intelligenza artificiale: ecco cosa sto imparando

L’AI potrebbe migliorare le nostre vite e quelle delle generazioni future. Ma perché ciò avvenga, servono nuovi strumenti di codifica, regole, patti tra chi immette la tecnologia sul mercato e chi la utilizza
Credit: Icarus.jpeg.
Tempo di lettura 8 min lettura
25 aprile 2023 Aggiornato alle 06:30

Ci sono alcune cose che sto imparando riguardo l’intelligenza artificiale.

Punto numero 1: quando inventi una nuova tecnologia, scopri anche nuove responsabilità e non è detto che sia sempre così semplice capire quali siano. Per fare 2 esempi: finché non ci sono stati i computer nessuno di noi aveva sentito l’esigenza di scrivere; lo stesso vale per l’introduzione della tecnologia delle telecamere a basso prezzo: nessuno chiedeva il diritto alla privacy.

Punto numero 2 e numero 3: se la nuova tecnologia porta potere, allora inizia una competizione; se non si ricerca e coordina un metodo comune, la gara finirà in tragedia e nessuna persona riuscirà a fermarla.

Punto numero 4: il primo contatto importante tra essere umano e intelligenza artificiale è avvenuto nei social media, mentre il secondo con ChatGPT.

Punto numero 5: le discussioni intorno all’AI sono molto “rumorose”, in parte animate da disinformazione e in parte da mal-informazione che arriva dal mercato, dai post umanisti, dai trans umanisti, dai luddisti, dai persuasori.

Punto numero 6: l’intelligenza artificiale non è solo ChtaGPT. Ogni volta che accedi a TikTok o altri social network, apri la connessione tra te a l’AI che farà di tutto per farti stare nel “flusso”, nello streaming. È una AI molto semplice: in definitiva, ti fa vedere solo qualche cane o gatto simpatici per farti continuare a stare nel suo flusso. E cosi sono tutti i social media: information overload, doomscrolling, influencer culture, fake news, crollo della democrazia, mercificazione dei bambini e delle donne. Nessuno si aspettava o ha progettato gli algoritmi dei social media con l’obiettivo che accadessero queste cose. Non ce lo aspettavamo. Si voleva solo massimizzare il coinvolgimento.

Ma cosa sta succedendo ora con questo nostro secondo contatto con la AI?

Nel primo abbiamo perso perché raccontavamo di quanto è bello il social media che unisce le persone, dà modo di parlare a tutti, spazio alle Pmi, permette di creare comunità, fa nascere una nuova informazione pluralista e cosi via. Tutte queste cose sono vere ma dietro di loro c’è la AI, i suoi padroni e la volontà di coinvolgere e creare strategie dell’attenzione o della disattenzione.

Oggi, tra ChatGPT e il resto, bisogna capire come stiamo raccontando questa nuova cosa. Abbiamo sbagliato già nel primo contatto perché abbiamo cercato di risolvere i problemi che i social ci hanno portato come problemi separati, da prendere uno a uno senza, invece, considerare che avremmo dovuto considerarli come parti di un sistema.

E sappiamo come è andata a finire. Perché la strategia della disattenzione, la persuasione della AI non dialogica e democratica, ha catturato non solo la nostra attenzione ma anche la politica, la privacy, i valori, la finanza, il sistema elettorale, i media, la sicurezza nazionale, l’identità dei bambini, la credibilità della democrazia e li ha presi in ostaggio.

Tutto è diventato liquido intorno all’AI e alla sua strategia dell’attenzione, per questo ora è tutto cosi difficile da regolamentare. Per ora la narrazione che emerge è che l’intelligenza artificiale ci aiuterà, ci renderà migliori, ogni cosa sarà più efficiente, efficace; scriverà codici che saranno utilissimi e ci farà fare un sacco di soldi.

Anche in questo caso si tratta di verità ma come per i social media ci sarà fiducia che crolla, lobby nuove e persuasive, automazione della biologia, educazione e formazione sintetica, relazioni sintetiche, verità sintetica. Come la maga Circe la cui dimora era un palazzo circondato da un bosco, abitato da felici bestie e maiali selvatici che, racconta Virgilio, non sono altro che uomini e donne attirati con la persuasione dalla Dea e poi trasformati cosi per i suoi voleri.

Il 2023 è l’anno, ormai è sotto gli occhi di tutti senza essere improbabili profeti, in cui tutti gli strumenti di fact checking su testo, audio e video non funzioneranno più. È l’anno di una nuova persuasione. L’AI impara veloce e tutta la conoscenza diventa la totale decodifica e sintesi della realtà, compreso il linguaggio e i simboli che sono poi lo strumento che fa fare agli esseri umani la politica, le relazioni, l’educazione, la religione.

L’ultima volta che abbiamo avuto non umani che hanno creato una narrazione persuasiva e il mito è stato l’avvento delle religioni; e questa è la scala dimensionale a cui dobbiamo pensare. Forse nel settembre del 2022 abbiamo assistito in Italia alle ultime elezioni politiche umane. Non avremo subito un’intelligenza artificiale che si candida ma sarà la nostra rappresentante, chi ci persuaderà: sarà la AI e vincerà chi avrà la più grande potenza di calcolo e più dati.

Cosa c’è di diverso da prima? Ora la AI crea dei veri e propri media sintetici testandoli su tutta la popolazione, crea bot che possono dar vita a relazioni, metodi e modelli persuasivi, nuovi, diversi, sintetici. Molti dicono che per la AI non sarà altro che come per l’elettricità, il nucleare, l’aratro o una calcolatrice. Ma se aumento l’elettricità non nasce qualcosa di ancora più aumentato, non salta fuori un’intelligenza nuova e più forte. Le metafore che stiamo usando, come la calcolatrice, l’aratro come salti tecnologici non lineari e così via, non reggono con il paradigma della AI.

Questi modelli di linguaggio hanno grandi capacità e i ricercatori che li studiano e sviluppano non capiscono come queste grandi capacità si presentino, quando o perché. L’AI sviluppa la teoria della mente, cioè la capacità di modellare ciò che qualcun altro sta pensando, il pensiero strategico.

Nel 2018 GPT non aveva una teoria della mente; nel 2019 appena, mentre nel 2020 aveva la strategia di un bambino di 4 anni; nel gennaio 2022 aveva la teoria della mente di uno di 7 e a dicembre 2022 di uno di 9. Si sta ridimensionando in maniera esponenziale rispetto a altri modelli di intelligenza artificiale e non sappiamo bene perché queste qualità emergano.

GPT in pochi mesi è diventato il programma migliore per fare ricerca chimica di tutti quelli di AI pensati per questo ma non abbiamo la tecnologia per capire cosa sta succedendo dentro GPT. Sappiamo che ha capacità nuove che emergono mese dopo mese ma non sappiamo e non abbiamo la tecnologia per capire cosa c’è dentro. E cosi come Circe si nutre degli esseri umani, cosi GPT si nutre dei dati delle persone.

E se i dati finiscono? GPT è un modello di AI che si basa sulla creazione di linguaggio, quindi da solo crea il linguaggio stesso e nuovi dati. Lo fa capendo quali sono quelli buoni da tenere per allenarsi e quali quelli da scartare. Ecco il nuovo paradigma. Le armi nucleari non producono armi nucleari più forti. Tutto questo avviene velocemente e cosi è difficile percepirlo. GPT si sviluppa e lavora nel nostro punto cognitivo cieco.

La nostra mente e la nostra cultura non sono mai state addestrate e preparate per capire GPT; certo capiamo il punto di vista tecnico ma non quello sociale, antropologico, evoluzionistico. E non ho parlato di chatbot, di giustizia sociale della AI, di pregiudizio della AI, dell’arte e di AI, del lavoro che sostituirà la AI, del deep fake. Anche questi sono grandi problemi ma il principale è la gara che i padroni delle intelligenze artificiali si stanno facendo per avere il predominio di mercato.

La persuasione sarà sempre più una delle sue capacità migliori e questo è davvero il problema, perché significa che ti porterà sempre a convincerti che alla fine ha ragione l’AI.

Cosa fare dunque? Non ci sono risposte, né qui, nei laboratori e men che meno dove ce ne sarebbe un grande bisogno, nei parlamenti. C’è da costruire patti, relazioni, tra donne e uomini di buona volontà intorno a questo nuovo progetto Manhattan, con alcune proposte già attuabili.

C’è un divario di 30 a 1 tra i ricercatori che studiano l’AI dal punto di vista tecnico e quelli che la studiano dal punto di vista umano. Bisogna colmare questo divario. Una politica di impresa e del lavoro dovrebbe portare ad avere almeno 5 umanisti su 10 tecnologi nello sviluppo della AI. E la ricerca dell’intelligenza artificiale dovrebbe poi tornare anche nel mondo accademico, mentre ora passa quasi solo esclusivamente dalle grandi sorelle produttrici di digitale.

Il futuro possiamo ancora costruirlo spetta a noi, alle generazioni che oggi frequentano le scuole e le università e a quelle che verranno dopo di loro. Dobbiamo conoscere la AI e le sue conseguenze e le sue capacità non regolamentate. Il progetto Manhattan e gli scienziati che vi avevano partecipato non erano consapevoli dei danni che avrebbero causato. Molti di loro si sono suicidati. Ma dopo questo evento, dopo il Manhattan project, ci sono stati dibattiti, confronti democratici, consapevolezza che le armi nucleari erano davvero terribili e ora solo 9 Stati le possiedono. Le parti si sono confrontate, parlate e hanno capito che poche persone di un Governo e poche dell’altro non potevano decidere le sorti del mondo.

Ora dalle persone dei Governi siamo passati a quelle che siedono nei diversi Cda delle grandi sorelle (Google, Amazon, Facebook, Apple, Microsoft), OpenAI e di pochi altri. I media non stanno aiutando, stretti nelle loro entropica dissoluzione alla rincorsa della influencer culture; a raccontare la corsa alla persuasione della AI come avrebbero dovuto. Bisogna aiutarli a capire e a diffondere.

C’è un’ altra possibilità oltre ad aumentare la parte umanista nella produzione di AI, ed è quella di rallentare la sua diffusione, non la corsa della ricerca, possibilmente non profit, ma quella della sua distribuzione pubblica. È molto importante un percorso di decentralizzazione della AI.

Così arriviamo al punto numero 7: l’intelligenza artificiale continuerà a fare straordinarie scoperte nel campo medico, a creare mezzi che distruggeranno le microplastiche degli oceani e molto altro, ma è necessario un patto tra chi la mette sul mercato, la politica e le comunità di tutto il mondo. Una decentralizzazione che porti a una AI bene comune. Di tutto il Pianeta, natura e umanità.

Leggi anche