Futuro

Motori intelligenti

OpenAI e Google stanno lavorando per portare le interfacce basate sui large language model nei sistemi per cercare informazioni in rete. Le conseguenze potrebbero essere rischiose. Ma le opportunità non mancano
Credit: Freepik 
Tempo di lettura 4 min lettura
9 maggio 2024 Aggiornato alle 06:30

Le chat alimentate dai large language model sono destinate a modificare l’esperienza dei motori di ricerca. Lo attestano gli annunci di Google, OpenAI e Microsoft e lo testimoniano gli osservatori che hanno visto i prototipi di soluzioni che sono allo studio. Le novità potrebbero cambiare il modo con il quale le persone usano internet. Potrebbe anche essere un’occasione per migliorare il modo con quale le persone usano internet?

Google ha dominato il mondo dei motori di ricerca con un’idea originaria importantissima: la rilevanza delle pagine web era definita dal numero di citazioni che ricevevano. All’inizio della storia di Google questo ha consentito agli internettiani di avere un punto di riferimento “oggettivo” e trasparente sull’importanza delle pagine. Le modifiche successive alla logica del motore sono state pensate per andare incontro alle esigenze personalizzate degli utenti. Il che ha distrutto l’oggettività e aumentato l’immediatezza della fruizione. Con vantaggi significativi per gli inserzionisti pubblicitari che potevano cercare di “colpire” target molto precisi.

La qualità epistemologica del risultato è stata sempre meno chiara. L’influenza di Google è diventata sempre più gigantesca. Con accordi miliardari, poi, Google ha difeso la sua posizione dominante dalla concorrenza: Apple per esempio si è impegnata a mettere il motore di ricerca di Google in evidenza e in cambio ha guadagnato diversi miliardi all’anno. La posizione di Google sembrava inattaccabile. E per la verità lo sembra ancora, ma con qualche scricchiolio.

Le autorità antitrust si sono fatte vedere. Le istituzioni hanno contestato gli accordi come quello stretto tra Apple e Google. Bing, il motore concorrente della Microsoft, ha tentato di diventare più interessante aggiungendo un’interfaccia basata su ChatGPT. Ma per ora non è successo nulla di clamoroso.

Ora OpenAI dice di voler fare un prodotto dedicato alla ricerca su internet. E la stessa Google ha provato a immettere funzionalità da large language model nel suo motore. Certo è che deve andarci con i piedi di piombo: il suo valore sta nell’affidabilità del motore di ricerca e le allucinazioni delle chat non sono compatibili con quell’affidabilità.

OpenAI può andare più tranquillamente a provare il suo servizio, tanto dal punto di vista epistemologico non ha molto da perdere. In effetti, la sua credibilità non è data dalla qualità delle risposte (di solito sorprendentemente valide anche se a volte allucinate) ma dalla “umanità” del suo modo di esprimersi. Le persone che la usano sono tentate di credere a una macchina che parla come una persona.

Il rischio è che questo disperda ancora un po’ di consapevolezza degli utenti. Li faccia andare ancora più sull’immediatezza e ancora meno sull’impegno a comprendere come stanno le cose.

Un altro rischio è che l’uso delle informazioni che si trovano in rete non sia più gratificato dal traffico che il motore di ricerca può alimentare quando si limita a segnalare link da consultare, perché a quel punto il riassunto prodotto dal large language model sarebbe sufficiente a molti utenti, anche nel caso che contenga (come sembra avvenga nel motore di ricerca di OpenAI) i link di citazione delle fonti.

Il terzo rischio è che si concentri ancora di più il traffico e il potere nell’internet sulle grandi piattaforme. Internet doveva essere molto diverso da così.

Il punto è: con i large language model si può invece sviluppare un’idea diversa, distribuita della conoscenza in rete? Tanto da gratificare davvero chi la produce, soprattutto quando lo fa con impegno per la qualità? I large language model sviluppati in Europa, che favorisce quelli che sono open source, potrebbero essere la premessa di una distribuzione del potere in rete e di una valorizzazione di saperi specialistici. Saranno sostenuti da un’idea dell’intelligenza artificiale che abbandoni l’obiettivo di costruire un’imitazione del pensiero umano e si concentri sulla creazione di strumenti che consentano agli umani di fare cose che senza non sono in grado di fare.

Leggi anche
Intelligenza artificiale
di Fabrizio Papitto 2 min lettura