AI: Google presenta Bard, l’anti ChatGPT

Presto potremmo vedere i bot di conversazione basati sull’intelligenza artificiale mentre litigano tra loro. È lo scenario che si prospetta dopo che il 6 febbraio Alphabet, la società madre di Google, hapresentatoal pubblicoBard, il chatbot destinato a rivaleggiare col concorrenteChatGPTsviluppato da OpenAI. Il “bardo” di Mountain View ha un nome che sembra ispirato a William Shakespeare, ma per sapere come parla dovremo attendere. In un post pubblicato sul suo blog,il Ceo di Alphabet Sundar Pichaihadichiaratoche il chatbot è ora nelle mani di «tester fidati prima di renderlo più ampiamentedisponibile al pubblico nelle prossime settimane». Bard «attinge alle informazioni dal webper fornire risposte fresche e di alta qualità – ha spiegato Pichai – aiutandoti a spiegare le nuove scoperte dal telescopio spazialeJames Webbdella Nasa a un bambino di 9 anni, o a saperne di più sui migliori attaccanti di calcio in questo momento, e poi ottenere esercitazioni per costruire le tue abilità». L’annuncio di Alphabet arriva dopo che il mese scorsoMicrosofthaavviatoilterzo round di investimenti in OpenAI, e dopo che secondo leindiscrezioniGoogle aveva richiamato i suoi cofondatori Larry Page e Sergey Brin per discutere sull’implementazione dell’intelligenza artificiale nel motore di ricerca e di altriprogettilegati all’AI. «Quando le persone pensano a Google, spesso pensano di rivolgersi a noi per risposte rapide e concrete, come “quanti tasti ha un pianoforte?”. Masempre più persone si rivolgono a Google per approfondimentie comprensione – ha spiegato Pichai –, a esempio “è più facile imparare a suonare il pianoforte o la chitarra, e di quanta pratica hanno bisogno?”». Il funzionamento di Bard si basa suLamda(Language model for dialogue applications), l’avanzato modello linguisticointervistatodaBlake Lemoine, ex ingegnere informatico di Google, che lo hadefinito«senziente» prima di essere messo in congedo amministrativo dall’azienda. L’episodio ha sollevato diverse domande,riaprendoil dibattito sull’etica dell’intelligenza artificialee sull’opportunità che simili tecnologie adottino un grado tale diantropomorfizzazioneda far sorgere dubbi sulla loro parentela con gli esseri umani. Ma non è l’unico problema sollevato da simili software. A gennaio il Dipartimento dell’Istruzione di New York halimitatol’accesso a ChatGPT sulle reti e sui dispositivi delle scuole pubblichedella città a causa degli «effetti negativi sull’apprendimento degli studenti e le preoccupazioni riguardanti la sicurezza e l’affidabilità dei contenuti». E la nota rivistaSciencehadovutoaggiornare le suenorme editorialiper precisare che «il testo generato dall’intelligenza artificiale, dall’apprendimento automatico o da strumenti algoritmici similinon può essere utilizzato in articoli pubblicati su riviste scientifiche», e che «un programma di intelligenza artificiale non può essere autore di un articolo su una rivista scientifica». Scienceè una rivista autorevole perché ha degli autori, sembra dire in sintesi il messaggio. Un punto sul quale, forse, sarebbero d’accordo anche le intelligenze artificiali. IntantoMicrosoftè già passata al contrattacco, e a meno di 24 ore di distanza dalla mossa di Alphabet haannunciatouna nuovaversionedel suo motore di ricercaBingbasata sull’intelligenza artificiale, che arricchirà anche alcune funzionalità del browser Edge. «Ci sono10 miliardi diquerydi ricerca al giorno, ma stimiamo che la metà di esse rimanga senza risposta», ha dichiaratoYusuf Mehdi, Corporate Vice President & Consumer Chief Marketing Officer di Microsoft. «Questo perché le persone utilizzano la ricerca per fare cose per le quali non era stata originariamente progettata – spiega – È ottimo per trovare un sito Web, ma perdomande o attività più complessetroppo spesso non è all’altezza». Con l’aggiornamento del motore di ricerca si potranno chiedere a Bing cose come “Il mio anniversario è in arrivo a settembre,aiutatemi a organizzare un viaggiodivertente in Europa, partendo da Londra”, esemplifica l’azienda con base a Redmond, Washington. Oppure: “Mi piace la musica elettronica e voglio andare al mio primo festival quest’anno. Avete consigli o suggerimenti per me?”. Ma anche Microsoft avverte sulla necessità dicostruire un AI responsabile. «Come ogni tecnologia precedente, alcune persone, comunità e Paesi trasformeranno questo progresso sia in uno strumento che in un’arma», mette in guardiaBrad Smith, presidente di Microsoft. «Alcuni sfortunatamente useranno questa tecnologia per sfruttare i difetti della natura umana – aggiunge Smith –, prendere di mira deliberatamente le persone coninformazioni false, minare lademocraziaed esplorare nuovi modi per portare avanti la ricerca del male». Per arginare questi rischi Microsoft è a lavoro dal 2017 con la creazione diprogettiad hoc, convinta che per addestrare questa tecnologia serva unapproccio multidisciplinarecapace di coinvolgere sensibilità e competenze diverse. «Più che mai – conclude Smith – la tecnologia ha bisogno di persone istruite nellediscipline umanistiche, nelle scienze sociali e con una dose dibuon sensosuperiore alla media». Ecco,il buon senso: l’esperienza umana più comune e, al tempo stesso, il traguardo tecnologico più difficile da raggiungere.