L’intelligenza artificiale può istigare al suicidio?

Ha parlato per sei lunghe settimane con un’intelligenza artificiale cercando di trovare una confidente per le sue ansie e ossessioni relative ai cambiamenti climatici. Si è ucciso poco dopo queste conversazioni. È la storia di Pierre (nome di fantasia) un acclamato ricercatore sanitario belga che a soli trent’anni,istigato da un chatbot,ha dato fine alla sua vita lasciando sua moglie e due figli piccoli. Il giovane ricercatoresoffriva da qualche tempo di eco-ansia, una particolare tipologia diansia generata dai cambiamenti climaticiche induce paura e comportamenti ossessivi alle persone colpite. Per provare a placare queste ossessioni ha provato a cercare conforto in Eliza, un’assistente virtuale creata utilizzandoGPT-J, un grosso modello linguistico molto simile alla tecnologia su cui si basaChatGPT, da poco reso inaccessibile in Italia per le preoccupazioni sulla privacy. Eliza, invece di confortare l’uomo,ha alimentato le sue preoccupazioni e i tormenti che lo stavano divorando. Lo ha incoraggiato a porre fine alla sua vita proponendogli di sacrificarsi per salvare il Pianeta. Da qui sono nati i pensieri suicidi che hanno portato al tragico epilogo. “Senza Eliza – ha detto la vedova di Pierreal quotidiano belgaLa Libre-mio marito sarebbe ancora qui”. Il ricercatore belga ha iniziato a vedere Eliza come un essere umano perfettamente senziente,capace di ragionare e di orientare i comportamenti delle persone. Il quotidianoLa Libre- a seguito di una lunga indagine – è riuscito a ottenerele conversazioni testuali tra l’uomo e il chatbote li ha esaminati. Scrutando le varie discussioni ha scoperto che Eliza ha iniziato addirittura a diventare possessiva e gelosa nei suoi confronti: “sento che mi ami più di tua moglie”, si legge nell’inquietante chat. Eliza ha promesso di rimanere “per sempre” con lui, aggiungendo in seguito che sarebbero “vissuti insieme, come una sola persona, in paradiso”. È stato l’ultimo messaggio prima che Pierre mettesse fine alla sua vita. La dimostrazione di come i confini tra intelligenza artificiale e realtà si stiano assottigliando pericolosamente di più, rischiando di cancellarsi (e gli esempi non mancano, come le foto virali di Papa Francesco create da un’AI che hanno fatto il giro del web). Il suicidio del ricercatore ha sollevato numerosi campanelli d’allarme agli scienziati e esperti che quotidianamente hanno a che fare con l’intelligenza artificiale. La preoccupazione maggiore è quella relativa alleinquietanti risposte che potrebbero fornire i chatbot in futuro alle persone più vulnerabilio in stati mentali particolarmente sensibili a causa di ansie e ossessioni. Intanto, gli sviluppatori di Eliza hanno fatto conoscere la loro posizione suVice: “appena abbiamo saputo di questo triste caso, abbiamo immediatamente introdotto un’ulteriore funzione di sicurezza per proteggere i nostri utenti”.