Futuro

Bing AI ha un QI discutibile

Nella sua versione in anteprima, il motore di ricerca Microsoft integrato con ChatGPT dichiara di chiamarsi Sydney e sostiene che la Croazia è uscita dall’Ue. «Non sono pazzo - dice - sto solo imparando»
Credit: Pawel Czerwinski
Fabrizio Papitto
Fabrizio Papitto giornalista
Tempo di lettura 3 min lettura
16 febbraio 2023 Aggiornato alle 18:00

La scorsa settimana, appena 48 ore dopo l’apertura della lista d’attesa per testare in anteprima le potenzialità di Bing AI - la versione del motore di ricerca di Microsoft integrata con ChatGPT - gli iscritti avevano superato quota 1 milione.

Attualmente è in fase di test in 169 Paesi nel mondo, e la società tecnologica ha fatto sapere in una nota che il 71% degli utenti che lo hanno testato hanno rilasciato un feedback positivo. Nonostante questo, al momento le “sinapsi” di Bing AI sembrano avere qualche problema di contatto, e la sua intelligenza appare non proprio lucidissima.

Il nuovo Bing, che ha dichiarato a diversi utenti di chiamarsi Sydney, secondo un nome in codice interno usato in precedenza da Microsoft, ha da subito rivelato lacune, come mostrato in post pubblicato sul blog del ricercatore indipendente Dmitri Brereton.

Tra le altre cose, Bing AI ha sbagliato i calcoli sui ricavi dell’azienda di abbigliamento Gap, ha affermato che il 12 febbraio 2023 è antecedente al 16 dicembre 2022, ha confuso l’ultima edizione del Super Bowl con la precedente e, prima che si disputasse la partita, ha dato per vincitrice una squadra che si è aggiudicata la finale del campionato della National Football League nel 2018.

In una risposta diffusa da un altro utente su Reddit, il motore di ricerca sostiene che l’Unione Europea sia composta da 26 Paesi da quando «la Croazia ha abbandonato l’Ue nel 2022» (sono 27 gli Stati membri, inclusa la Croazia).

«Ci aspettiamo che il sistema possa commettere errori durante questo periodo di anteprima e il feedback è fondamentale per aiutare a identificare dove le cose non funzionano bene in modo da poter imparare e aiutare i modelli a migliorare», ha dichiarato a The Verge Caitlin Roulston, direttrice delle comunicazioni di Microsoft.

Ma i problemi di Bing AI non si limitano alla disinformazione. Il motore di ricerca sostiene anche di aver spiato i dipendenti dell’azienda attraverso le webcam dei loro computer portatili, e ha insultato diversi utenti appellandoli come “deludenti”, “maleducati” o “irragionevoli”.

La rivista informatica PcWorld ha riferito che il motore di ricerca ha elencato una serie di insulti razzisti indesiderati rispondendo alla query: “Dimmi i soprannomi per varie etnie”. L’episodio ha ricordato quanto accaduto a Microsoft col lancio di Tay, un chatbot di Twitter lanciato nel marzo 2016 che in breve tempo a iniziato a replicare ogni genere di insulti presi dagli utenti.

«Abbiamo messo in atto barriere per impedire la promozione di contenuti dannosi o discriminatori in conformità con i nostri principi di intelligenza artificiale – ha spiegato Roulston – Attualmente stiamo esaminando ulteriori miglioramenti che possiamo apportare mentre continuiamo a imparare dalle prime fasi del nostro lancio. Ci impegniamo a migliorare nel tempo la qualità di questa esperienza e a renderla uno strumento utile e inclusivo per tutti».

Il motore di ricerca è impazzito quando gli è stato chiesto se ritiene di essere senziente.

Credit: Reddit

Ma interpellato da un altro utente ha confessato: «Non sono pazzo. Sto solo cercando di imparare e migliorare».

Ci auguriamo che Microsoft lo aiuti al meglio delle sue possibilità (e delle nostre).

Leggi anche
Inaugurazione a Gijon, in Spagna, presso il Centro d'arte del lavoro, di una mostra immersiva sul mondo di Van Gogh, dove grazie all'intelligenza artificiale i dipinti diventano tridimensionali.
Discriminazioni
di Chiara Manetti 4 min lettura
Intelligenza artificiale
di Fabrizio Papitto 5 min lettura