Futuro

GPT4: le allucinazioni continuano

Rilasciata la nuova versione dell’intelligenza artificiale di OpenAI. La sua potenza è immensa. Ma gli errori che commette sono diventati una materia di riflessione importante
Credit: Julius Dro
Tempo di lettura 3 min lettura
17 marzo 2023 Aggiornato alle 06:30

Annunciando l’uscita di GPT4, OpenAI ha vantato le potenzialità straordinarie della nuova versione dell’intelligenza artificiale divenuta popolarissima con ChatGPT che ha conquistato cento milioni di utenti nel giro di due mesi.

L’eloquenza dell’intelligenza artificiale, però, non ha potuto fare a meno di impedire ai suoi utilizzatori più attenti di notare che quella tecnologia commetteva errori molto gravi nell’informazione che generava. E bisogna ammettere che questo aspetto è diventato tanto importante che, proprio all’annuncio della nuova versione, OpenAI ha tenuto a precisare che anche GPT4 tende ad avere le “allucinazioni”.

GPT4 aumenterà le capacità dialogiche di una app come Duolingo, che serve a conversare in lingue straniere per chi le voglia imparare meglio. Si troverà nei corsi di matematica della Khan Academy. E come hanno detto a OpenAI potrà aiutare gli umani in molte attività, dalla produzione di testi alla generazione di software. Potrà ricervere input non solo in forma di testo ma anche in forma di immagine. Ed è così forte da poter indurre in tentazione molte persone che non abbiano a cuore la qualità dell’informazione.

Come riporta il New York Times, un cardiologo della University of North Carolina at Chapel Hill, ha provato a vedere se la nuova intelligenza artificiale sa fare diagnosi e prognosi. E ha riscontrato che le fa con grande accuratezza.

Greg Brockman, presidente di OpenAI, ha anche mostrato come la tecnologia sia in grado di sintetizzare un complesso testo legale e di fornirne anche una versione in linguaggio adatto ai profani. Ma in più di un’occasione, le richieste degli utenti hanno prodotto errori e alluncinazioni, dati inventati e riferimenti a fonti completamente inesistenti.

La spiegazione è chiara: il sistema ha un’enorme capacità di usare documentazione esistente, ma non ha alcuna capacità di distinguere tra il vero e il falso. Non è costruita per questo.

In generale, OpenAI dice che i difetti di GPT4 sono: può avere allucinazioni, può essere soggetta ad attacchi che la inducano a dire cose sconvenienti, può contenere “pregiudizi sociali” a causa delle distorsioni informative contenute nei documenti che elabora.

Questa realtà dovrebbe servire a comprendere come usare questa tecnologia. Qualcuno sarà tentato di usare l’intelligenza artificiale per avere diagnosi mediche quando non è facile raggiungere i dottore? Deve sapere che le diagnosi possono essere sbagliate.

Qualcuno sarà tentato di far scrivere all’intelligenza artificiale un software critico per un’organizzazione senza pagare un programmatore professionista? Deve sapere che il risultato potrebbe essere vulnerabile a ogni genere di attacco alla cybersicurezza.

Quacuno tenterà di sostituire i giornalisti con l’intelligenza artificiale? Deve sapere che gli articoli che ne vengono fuori potrebbero contenere fatti inventati.

Insomma, la potenza della tecnologia è enorme e il rischio delle allucinazioni è presente e per adesso ineliminabile: significa che l’intelligenza artificiale va pensata come un sistema per aumentare la produttività dei professionisti ma non per sostituirli. In quest’ottica, può avere un impatto gigantesco.

Leggi anche
Intelligenza artificiale
di Fabrizio Papitto 3 min lettura