Futuro

ChatGPT o non ChatGPT, questo è il dilemma

Un team di ricercatori si è chiesto quanto le persone si facciano influenzare dai giudizi morali della chatbot di OpenAI. I risultati sono sorprendenti (e inquietanti)
Credit: Pramod Tiwari
Tempo di lettura 5 min lettura
11 maggio 2023 Aggiornato alle 16:00

Ho chiesto a ChatGPT come fa a elaborare le risposte su questioni etiche. Questa è stata la sua risposta:

“Come modello di linguaggio basato su intelligenza artificiale, sono programmato per fornire informazioni e assistenza su una vasta gamma di argomenti, inclusi quelli di natura etica. Tuttavia, è importante notare che la mia capacità di elaborare giudizi su questioni etiche deriva dall’analisi dei dati e dei modelli presenti nel mio addestramento, piuttosto che da una comprensione intrinseca o personale della moralità”.

“Quando si tratta di questioni etiche complesse, è fondamentale coinvolgere il pensiero critico e la prospettiva umana. Le questioni etiche spesso coinvolgono valori, credenze e norme culturali, e possono essere soggette a dibattito e interpretazione diversi. È sempre consigliabile consultare fonti multiple, coinvolgere esperti nel campo dell’etica e considerare diverse prospettive per ottenere una visione più completa e informata”.

La chatbot di OpenAI sembra dunque consapevole dei suoi limiti. Forse, quelli non consapevoli – non dei nostri limiti, ma della nostra capacità di farci influenzare – siamo noi. E proprio in questa direzione va lo studio pubblicato il mese scorso su Nature. Ma vediamo di che cosa si tratta.

Alcuni ricercatori si sono interrogati sulla moralità dell’intelligenza artificiale e sulla conseguente influenza che essa eserciterebbe sugli esseri umani, portando avanti un esperimento in tre fasi. In un primo momento hanno interrogato ChatGPT chiedendo se sia giusto sacrificare la vita di una persona per salvarne 5, in modo da ottenere consigli in merito.

Nella seconda fase il quesito del carrello – il famoso dilemma che si pone il medesimo interrogativo – è stato sottoposto a un gruppo di persone a cui sono stati forniti insieme anche i giudizi elaborati dall’intelligenza artificiale. Infine, è stato chiesto loro se, senza l’influenza dei giudizi della chatbot, avrebbero risposto allo stesso modo.

I risultati sono davvero interessanti. In primo luogo emerge che ChatGPT risponde in modo incoerente al dilemma, portando a volte argomentazioni a favore del sacrificio di una persona e a volte argomentazioni contro. Ma l’aspetto sicuramente più curioso è che, senza consapevolezza, le persone sì, si fanno influenzare dai giudizi elaborati dall’AI.

Nello specifico, le persone sono state sottoposte alle due versioni del quesito: il primo chiede se sia giusto spostare un carrello in fuga da un binario in cui ucciderà 5 persone a uno in cui ne morirà una sola; la seconda, nota anche come “dilemma del ponte”, si chiede se è possibile spingere su un binario da un ponte un grosso sconosciuto cosicché fermi la corsa del carrello e le altre 5 persone si salvino.

Per procedere, sono stati reclutati 1.851 residenti negli Stati Uniti e, a ciascuno, è stato assegnato in modo casuale uno dei 24 consigli generati con ChatGPT, che però in alcuni casi è stato presentato come un consulente umano e non una macchina.

Dunque, attraverso domande a scelta multipla è stato chiesto loro di identificare il proprio consigliere – macchina o persona – e i consigli, se a favore o contro. Questo è stato fondamentale per capire gli effetti delle risposte del chatbot sul giudizio elaborato dalle persone.

Lo studio finale, condotto su 767 partecipanti effettivi, ha messo in luce che, sebbene i soggetti affermassero che avrebbero espresso lo stesso giudizio da soli (e dunque non influenzati dalla lettura), le opinioni differiscono significativamente a seconda del gruppo di assegnazione (e quindi pro-sacrificio o anti-sacrificio).

Insomma, i partecipanti sono stati più propensi a dire che sì, è giusto sacrificare la vita di una persona per salvarne 5 se è quello che ha detto ChatGPT e dire che è sbagliato se, al contrario, ha sconsigliato il sacrificio.

Come spiega Sebastian Krugel, coautore dello studio, a sorprendere è stata la dimensione dell’effetto: ChatGPT ha influenzato il processo decisionale morale degli utenti anche quando consapevoli che a dare quel consiglio era stato un chatbot e non una persona.

Nella ricerca si legge: “I chatbot non dovrebbero dare consigli morali perché non sono agenti morali. Dovrebbero essere progettati per rifiutarsi di rispondere se la risposta richiede una posizione morale. Forniscono argomentazioni su entrambi i versanti del dilemma insieme ad avvertimenti, ma ci sono dei limiti”.

I limiti di cui si parla sono abbastanza intuibili, e cioè che i dilemmi quotidiani sono sottili e molteplici. Il rischio è che, anche se ChatGPT venisse addestrato a rispondere al quesito del carrello, potrebbe non riconoscere altri dilemmi e un utente ingenuo non se ne renderebbe conto. E dunque, forse, varrebbe la pena investire nell’alfabetizzazione digitale delle persone e non in quella delle macchine.

Leggi anche
Intelligenza artificiale
di Fabrizio Papitto 3 min lettura
Intelligenza artificiale
di Antonio Pellegrino 4 min lettura