Intelligenza artificiale: errori di sistema

Fino a una ventina d’anni fa, “macchina batte umano a scacchi” era una notizia.Oggi, la notizia è “umano batte macchina a go”. Già. C’è un’idea molto ripetuta secondo la quale ilmiglioramento delle macchine intelligentiè ineluttabile e porterà presto atecnologie capaci di superare le abilità umanein una quantità di compiti. Questa convinzione era presente nei programmi dei fondatori dell’intelligenza artificialeche si sono riuniti a Dartmouth nell’estate del 1956. Dopo quasi 70 anni questa visione non si è realizzata. Eppure quella narrativa resta perfettamente in piedi. Tanto che quando nel maggio del1997il computerDeepBluebatte il campione umano discacchi,Garri Kasparov, il fatto è raccontato come l’apertura di unanuova epocanella qualele macchine possono essere più intelligentidegli umani. La storia si ripete quandoAlphaGovince contro il campione di go, Lee Sedol: questi è talmente convinto di essere diventato una nuova tappa dell’avanzata invincibile delle macchine che decide di ritirarsi dalle competizioni e abbandonare il gioco, dicendo che lemacchinesono ormai entità, appunto,imbattibili. Ma come sappiamo, si sbagliava. Kellin Pelrine, un giovane scienziato informatico, ha studiato ipunti di debolezza delle intelligenze artificiali che giocano a goe le ha sfidate. Ha battutoKataGoin 14 partite su 15. E ha vinto anche controLeela Zero. Si tratta di macchine considerate forti quantoAlphaGo. Naturalmente, per studiare i punti deboli delle macchine avversarie ha usato un’intelligenza artificiale. Insomma ha imparato ausare la tecnologia in modo nuovo invece di subirla. Ci sono moltimotivi per non ritenere che gli umani siano destinati a subire un’ineluttabile superiorità delle macchine. Il primo è cognitivo. Gerd Gigerenzer, nel suo libro intitolatoPerché l’intelligenza umana batte ancora gli algoritmi(Raffaello Cortina2022, 368 pagine, 24,70 euro) afferma che “gli algoritmi complessi sono in una posizione di vantaggio quando le situazioni sono stabili”, ma non lo sono quando “devono combattere con l’incertezza”. È un punto di vista essenziale.L’intelligenza artificiale non è migliore degli umani.È radicalmente diversa dagli umani. E l’unico modo per farne buon uso è conoscerne il potenziale e i limiti, restando “determinati amantenere il controllo in un mondo popolato daalgoritmi”, conclude Gigerenzer. Soltanto abbandonando un’interpretazione antropomorfa dell’intelligenza artificiale se ne possono studiare le caratteristiche fondamentali. Soltanto studiando i casi in cui la storia dei computer rallenta o indietreggia, come è successo tanto spesso all’intelligenza artificiale, si può apprezzare il valore delle innovazioni autentiche. E soltanto studiando ledistorsioni delle conoscenzeche l’intelligenza artificiale dimostraa causa dei pregiudizi socialicontenuti nei dati che utilizza per alimentarsi si puòabbandonare l’equivocodi cercare nell’automazione cognitiva unarisposta “oggettiva” a qualsiasi domanda. In questo modo si può probabilmente studiare l’intelligenza artificiale in modo più sensato. La proiezione nel futuro della convinzione secondo la quale il progresso tecnologico è continuo, inarrestabile, senza limiti, non tiene conto delle conseguenze sociali, ambientali, culturali che produce. Male persone stanno prendendo consapevolezza di queste conseguenze, positive e negative. Ilsoluzionismo tecnologico, l’idea che i difetti della società siano soltanto dei bug di sistema che saranno risolti con un buon software, non prestava attenzione ai propri effetti collaterali sulla società ma si proponeva di difendere un contesto privo di regole per lo sviluppo di intelligenza artificiale. Ma il clima culturale e politico non è più favorevole a questa impostazione. In questi giorni, centinaia di persone, tra le quali Gary Marcus, Yoshua Bengio, Elon Musk e molti altri,stanno firmandounalettera apertalanciata dalFuture of Life Instituteche chiede unamoratoria sul lancio di nuove versioni sempre più potenti di intelligenze artificialigenerative del tipo diGPT4.Naturalmente va avanti il lavoro della Commissione europea sull’AI Actche ha un potenziale di impatto molto significativo. Il contesto socio-politico non è più quello adatto a chi suggerisce cheprima si fa l’innovazione e poi se ne affrontano le conseguenze. Era un sistema efficace ma sbagliato.Un errore di sistema.