GPT4: le allucinazioni continuano

Annunciando l’uscita diGPT4,OpenAIha vantato le potenzialità straordinarie della nuova versione dell’intelligenza artificiale divenuta popolarissima conChatGPTche ha conquistato cento milioni di utenti nel giro di due mesi. L’eloquenza dell’intelligenza artificiale, però, non ha potuto fare a meno di impedire ai suoi utilizzatori più attenti di notare che quellatecnologia commetteva errori molto gravi nell’informazione che generava. E bisogna ammettere che questo aspetto è diventato tanto importante che, proprio all’annuncio della nuova versione, OpenAI ha tenuto a precisare cheanche GPT4 tende ad avere le “allucinazioni”. GPT4 aumenterà le capacità dialogiche di una app comeDuolingo, che serve a conversare in lingue straniere per chi le voglia imparare meglio. Si troverà nei corsi di matematica dellaKhan Academy. E come hanno detto aOpenAIpotrà aiutare gli umani in molte attività,dalla produzione di testi alla generazione di software. Potrà ricervere input non solo in forma di testo ma anche in forma di immagine. Ed è così forte da poter indurre in tentazione molte persone che non abbiano a cuore la qualità dell’informazione. Come riporta ilNew York Times, un cardiologo dellaUniversity of North Carolina at Chapel Hill, ha provato a vederese la nuova intelligenza artificiale sa fare diagnosi e prognosi. E ha riscontrato che le fa con grande accuratezza. Greg Brockman, presidente diOpenAI, ha anche mostrato come la tecnologia sia in grado disintetizzare un complesso testo legale e di fornirne anche una versione in linguaggio adatto ai profani. Ma in più di un’occasione, le richieste degli utenti hanno prodotto errori e alluncinazioni, dati inventati e riferimenti a fonti completamente inesistenti. La spiegazione è chiara: il sistema ha un’enorme capacità di usare documentazione esistente, manon ha alcuna capacità di distinguere tra il vero e il falso. Non è costruita per questo. In generale,OpenAIdice che i difetti di GPT4 sono: può avere allucinazioni, può essere soggetta ad attacchi che la inducano a dire cose sconvenienti,può contenere “pregiudizi sociali”a causa delle distorsioni informative contenute nei documenti che elabora. Questa realtà dovrebbe servire a comprendere come usare questa tecnologia. Qualcuno sarà tentato di usare l’intelligenza artificiale per avere diagnosi mediche quando non è facile raggiungere i dottore? Deve sapere chele diagnosi possono essere sbagliate. Qualcuno sarà tentato di far scrivere all’intelligenza artificiale un software critico per un’organizzazione senza pagare un programmatore professionista? Deve sapere che il risultato potrebbe essere vulnerabile a ogni genere di attacco alla cybersicurezza. Quacuno tenterà di sostituire i giornalisti con l’intelligenza artificiale?Deve sapere che gli articoli che ne vengono fuori potrebbero contenere fatti inventati. Insomma, la potenza della tecnologia è enorme e il rischio delle allucinazioni è presente e per adesso ineliminabile: significa che l’intelligenza artificiale va pensata come un sistema peraumentare la produttività dei professionisti ma non per sostituirli. In quest’ottica, può avere un impatto gigantesco.