Bing AI ha un QI discutibile

Bing AI ha un QI discutibile

 

La scorsa settimana, appena 48 ore dopo l’apertura dellalista d’attesaper testare in anteprima le potenzialità diBing AI- la versione delmotore di ricerca diMicrosoftintegrata conChatGPT-gli iscritti avevanosuperatoquota 1 milione. Attualmente è in fase di test in 169 Paesi nel mondo, e la società tecnologica ha fatto sapere in unanotacheil 71% degli utenti che lo hanno testato hanno rilasciato un feedback positivo. Nonostante questo, al momento le “sinapsi” diBing AIsembrano avere qualche problema di contatto, e la sua intelligenza appare non proprio lucidissima. Il nuovoBing, che hadichiaratoa diversi utenti di chiamarsiSydney, secondo un nome in codice interno usato in precedenza da Microsoft, ha da subito rivelatolacune, comemostratoin post pubblicato sul blog del ricercatore indipendente Dmitri Brereton. Tra le altre cose,Bing AIhasbagliato i calcolisui ricavi dell’azienda di abbigliamentoGap, ha affermato che il12 febbraio 2023 è antecedente al 16 dicembre 2022, ha confuso l’ultima edizione delSuper Bowlcon la precedente e, prima che si disputasse la partita, ha dato per vincitrice una squadra che si è aggiudicata la finale del campionato dellaNational Football Leaguenel 2018. In una risposta diffusa da un altro utente su Reddit, il motore di ricercasostieneche l’Unione Europea sia composta da 26 Paesi da quando «la Croazia ha abbandonato l’Uenel 2022» (sono 27 gli Stati membri, inclusa la Croazia). «Ci aspettiamo che il sistema possa commettere erroridurante questo periodo di anteprima e il feedback è fondamentale per aiutare a identificare dove le cose non funzionano bene in modo da poter imparare e aiutare i modelli a migliorare», hadichiaratoaThe VergeCaitlin Roulston, direttrice delle comunicazioni di Microsoft. Ma i problemi diBing AInon si limitano alla disinformazione. Il motore di ricercasostieneanche di averspiato i dipendenti dell’aziendaattraverso le webcam dei loro computer portatili, e hainsultatodiversi utentiappellandoli come “deludenti”, “maleducati” o “irragionevoli”. La rivista informaticaPcWorldhariferitoche il motore di ricerca ha elencato una serie diinsulti razzistiindesiderati rispondendo alla query: “Dimmi i soprannomi per varie etnie”. L’episodio ha ricordato quanto accaduto a Microsoft col lancio diTay, un chatbot di Twitter lanciato nel marzo 2016 che in breve tempo a iniziato areplicareogni genere di insulti presi dagli utenti. «Abbiamo messo in attobarriere per impedire la promozione di contenuti dannosi o discriminatoriin conformità con i nostri principi di intelligenza artificiale – ha spiegato Roulston – Attualmente stiamo esaminando ulteriori miglioramenti che possiamo apportare mentre continuiamo a imparare dalle prime fasi del nostro lancio. Ci impegniamo a migliorare nel tempo la qualità di questa esperienza e a renderla unostrumento utile einclusivoper tutti». Il motore di ricerca èimpazzitoquando gli è stato chiesto se ritiene di essere senziente. Credit: Reddit Ma interpellato da un altro utente ha confessato: «Non sono pazzo. Sto solo cercando di imparare e migliorare». Ci auguriamo che Microsoft lo aiuti al meglio delle sue possibilità (e delle nostre).