Futuro

L’intelligenza artificiale può istigare al suicidio?

Un ricercatore belga ha posto fine alla sua vita dopo aver interagito a lungo con un’intelligenza artificiale che gli ha chiesto di “sacrificarsi per il mondo”
Credit: Cottonbro
Tempo di lettura 3 min lettura
19 maggio 2023 Aggiornato alle 21:00

Ha parlato per sei lunghe settimane con un’intelligenza artificiale cercando di trovare una confidente per le sue ansie e ossessioni relative ai cambiamenti climatici. Si è ucciso poco dopo queste conversazioni. È la storia di Pierre (nome di fantasia) un acclamato ricercatore sanitario belga che a soli trent’anni, istigato da un chatbot, ha dato fine alla sua vita lasciando sua moglie e due figli piccoli.

Il giovane ricercatore soffriva da qualche tempo di eco-ansia, una particolare tipologia di ansia generata dai cambiamenti climatici che induce paura e comportamenti ossessivi alle persone colpite. Per provare a placare queste ossessioni ha provato a cercare conforto in Eliza, un’assistente virtuale creata utilizzando GPT-J, un grosso modello linguistico molto simile alla tecnologia su cui si basa ChatGPT, da poco reso inaccessibile in Italia per le preoccupazioni sulla privacy.

Eliza, invece di confortare l’uomo, ha alimentato le sue preoccupazioni e i tormenti che lo stavano divorando. Lo ha incoraggiato a porre fine alla sua vita proponendogli di sacrificarsi per salvare il Pianeta. Da qui sono nati i pensieri suicidi che hanno portato al tragico epilogo. “Senza Eliza - ha detto la vedova di Pierre al quotidiano belga La Libre  - mio marito sarebbe ancora qui”.

Il ricercatore belga ha iniziato a vedere Eliza come un essere umano perfettamente senziente, capace di ragionare e di orientare i comportamenti delle persone. Il quotidiano La Libre  -  a seguito di una lunga indagine  - è riuscito a ottenere le conversazioni testuali tra l’uomo e il chatbot e li ha esaminati. Scrutando le varie discussioni ha scoperto che Eliza ha iniziato addirittura a diventare possessiva e gelosa nei suoi confronti: “sento che mi ami più di tua moglie”, si legge nell’inquietante chat.

Eliza ha promesso di rimanere “per sempre” con lui, aggiungendo in seguito che sarebbero “vissuti insieme, come una sola persona, in paradiso”. È stato l’ultimo messaggio prima che Pierre mettesse fine alla sua vita. La dimostrazione di come i confini tra intelligenza artificiale e realtà si stiano assottigliando pericolosamente di più, rischiando di cancellarsi (e gli esempi non mancano, come le foto virali di Papa Francesco create da un’AI che hanno fatto il giro del web).

Il suicidio del ricercatore ha sollevato numerosi campanelli d’allarme agli scienziati e esperti che quotidianamente hanno a che fare con l’intelligenza artificiale. La preoccupazione maggiore è quella relativa alle inquietanti risposte che potrebbero fornire i chatbot in futuro alle persone più vulnerabili o in stati mentali particolarmente sensibili a causa di ansie e ossessioni.

Intanto, gli sviluppatori di Eliza hanno fatto conoscere la loro posizione su Vice: “appena abbiamo saputo di questo triste caso, abbiamo immediatamente introdotto un’ulteriore funzione di sicurezza per proteggere i nostri utenti”.

Leggi anche
digitale
di Chiara Manetti 4 min lettura
Intelligenza artificiale
di Luca De Biase 4 min lettura