Futuro

Intelligenza artificiale: errori di sistema

L’AI non è inarrestabile, infallibile, imbattibile. E la consapevolezza dei suoi limiti è essenziale per imparare a usarla bene: se riusciranno a comprenderla, anche gli umani potranno superare i propri. Ancora un po’
Credit: Deep Mind
Tempo di lettura 4 min lettura
30 marzo 2023 Aggiornato alle 06:30

Fino a una ventina d’anni fa, “macchina batte umano a scacchi” era una notizia. Oggi, la notizia è “umano batte macchina a go”.

Già. C’è un’idea molto ripetuta secondo la quale il miglioramento delle macchine intelligenti è ineluttabile e porterà presto a tecnologie capaci di superare le abilità umane in una quantità di compiti. Questa convinzione era presente nei programmi dei fondatori dell’intelligenza artificiale che si sono riuniti a Dartmouth nell’estate del 1956.

Dopo quasi 70 anni questa visione non si è realizzata. Eppure quella narrativa resta perfettamente in piedi. Tanto che quando nel maggio del 1997 il computer DeepBlue batte il campione umano di scacchi, Garri Kasparov, il fatto è raccontato come l’apertura di una nuova epoca nella quale le macchine possono essere più intelligenti degli umani.

La storia si ripete quando AlphaGo vince contro il campione di go, Lee Sedol: questi è talmente convinto di essere diventato una nuova tappa dell’avanzata invincibile delle macchine che decide di ritirarsi dalle competizioni e abbandonare il gioco, dicendo che le macchine sono ormai entità, appunto, imbattibili. Ma come sappiamo, si sbagliava.

Kellin Pelrine, un giovane scienziato informatico, ha studiato i punti di debolezza delle intelligenze artificiali che giocano a go e le ha sfidate. Ha battuto KataGo in 14 partite su 15. E ha vinto anche contro Leela Zero. Si tratta di macchine considerate forti quanto AlphaGo. Naturalmente, per studiare i punti deboli delle macchine avversarie ha usato un’intelligenza artificiale. Insomma ha imparato a usare la tecnologia in modo nuovo invece di subirla.

Ci sono molti motivi per non ritenere che gli umani siano destinati a subire un’ineluttabile superiorità delle macchine. Il primo è cognitivo. Gerd Gigerenzer, nel suo libro intitolato Perché l’intelligenza umana batte ancora gli algoritmi (Raffaello Cortina 2022, 368 pagine, 24,70 euro) afferma che “gli algoritmi complessi sono in una posizione di vantaggio quando le situazioni sono stabili”, ma non lo sono quando “devono combattere con l’incertezza”. È un punto di vista essenziale. L’intelligenza artificiale non è migliore degli umani. È radicalmente diversa dagli umani. E l’unico modo per farne buon uso è conoscerne il potenziale e i limiti, restando “determinati a mantenere il controllo in un mondo popolato da algoritmi”, conclude Gigerenzer.

Soltanto abbandonando un’interpretazione antropomorfa dell’intelligenza artificiale se ne possono studiare le caratteristiche fondamentali. Soltanto studiando i casi in cui la storia dei computer rallenta o indietreggia, come è successo tanto spesso all’intelligenza artificiale, si può apprezzare il valore delle innovazioni autentiche. E soltanto studiando le distorsioni delle conoscenze che l’intelligenza artificiale dimostra a causa dei pregiudizi sociali contenuti nei dati che utilizza per alimentarsi si può abbandonare l’equivoco di cercare nell’automazione cognitiva una risposta “oggettiva” a qualsiasi domanda.

In questo modo si può probabilmente studiare l’intelligenza artificiale in modo più sensato. La proiezione nel futuro della convinzione secondo la quale il progresso tecnologico è continuo, inarrestabile, senza limiti, non tiene conto delle conseguenze sociali, ambientali, culturali che produce. Ma le persone stanno prendendo consapevolezza di queste conseguenze, positive e negative.

Il soluzionismo tecnologico, l’idea che i difetti della società siano soltanto dei bug di sistema che saranno risolti con un buon software, non prestava attenzione ai propri effetti collaterali sulla società ma si proponeva di difendere un contesto privo di regole per lo sviluppo di intelligenza artificiale. Ma il clima culturale e politico non è più favorevole a questa impostazione.

In questi giorni, centinaia di persone, tra le quali Gary Marcus, Yoshua Bengio, Elon Musk e molti altri, stanno firmando una lettera aperta lanciata dal Future of Life Institute che chiede una moratoria sul lancio di nuove versioni sempre più potenti di intelligenze artificiali generative del tipo di GPT4. Naturalmente va avanti il lavoro della Commissione europea sull’AI Act che ha un potenziale di impatto molto significativo. Il contesto socio-politico non è più quello adatto a chi suggerisce che prima si fa l’innovazione e poi se ne affrontano le conseguenze. Era un sistema efficace ma sbagliato. Un errore di sistema.

Leggi anche
Intelligenza artificiale
di Fabrizio Papitto 2 min lettura