Diritti

Le app di partner virtuali sono una minaccia per le donne?

I chatbot AI come Replika, Character.AI e Soulmate permettono di creare la compagna perfetta e combattere la solitudine. Ma anche di replicare e amplificare stereotipi, pregiudizi e abusi, avvertono gli esperti
Credit: Leeloo Thefirst
Costanza Giannelli
Costanza Giannelli giornalista
Tempo di lettura 5 min lettura
9 agosto 2023 Aggiornato alle 10:00

Immagina di poter scegliere il partner perfetto fin nei minimi dettagli, dall’aspetto alla personalità, fino al desiderio sessuale. È quello che permettono di fare molte app di AI generativa di partner virtuali come Replika, Character.AI e Soulmate.

Secondo gli sviluppatori, i compagni e le compagne creati dall’intelligenza artificiale possono aiutare non solo a combattere la solitudine, ma anche a migliorare l’esperienza di appuntamenti in uno spazio sicuro e persino aiutare le coppie nella vita reale a riaccendere le loro relazioni. Tutto bello? Non proprio.

«Molti dei personaggi sono personalizzabili… a esempio, puoi personalizzarli per essere più sottomessi o più compiacenti», ha spiegato alla Thomson Reuters Foundation Shannon Vallor, docente di etica dell’AI all’Università di Edimburgo. «Ed è probabilmente un invito all’abuso in quei casi», ha detto, aggiungendo che questi tool possono amplificare stereotipi e pregiudizi dannosi contro donne e ragazze.

Un’opinione condivisa da esperti di etica dell’intelligenza artificiale e attivisti per i diritti delle donne, secondo cui “lo sviluppo di relazioni unilaterali in questo modo potrebbe rafforzare inconsapevolmente comportamenti di controllo e abusi contro le donne, poiché i robot di AI funzionano alimentando l’immaginazione e le istruzioni dell’utente”.

«Creare un partner perfetto che controlli e soddisfi ogni tua esigenza è davvero spaventoso», ha spiegato al Guardian Tara Hunter, Ceo a interim di Full Stop Australia, che supporta le vittime di violenza domestica o familiare. «Dato quello che sappiamo già, che i driver della violenza di genere sono quelle convinzioni culturali radicate secondo cui gli uomini possono controllare le donne, questo è davvero problematico».

Non è una novità che l’intelligenza artificiale replichi pregiudizi di genere e stereotipi molto reali. Il rischio è che le app di compagnia virtuale riproducano e amplifichino le relazioni disfunzionali e abusanti nei confronti di donne e ragazze, diventando un vero e proprio pericolo per i loro diritti.

Questo accade anche perché, ha spiegato Hera Hussain, fondatrice dell’organizzazione no profit globale contro la violenza di genere Chayn, non viene affrontata la causa principale del motivo per cui le persone si rivolgono a queste app. «Stanno cercando una compagnia unidimensionale. Quindi, se è già probabile che qualcuno sia violento e ha uno spazio per essere ancora più violento, allora stai rafforzando quei comportamenti, che potrebbero intensificarsi». Insomma, invece che aiutare le persone a migliorare le loro abilità sociali, queste app stanno peggiorando le cose, rendendo le persone violente ancora più violente.

Queste app, prosegue, «consentono alle persone di creare una fidanzata artificiale che incarni pienamente gli stereotipi invece di resistergli e insistere per essere trattata con dignità e rispetto». E se l’abuso diventa routine nel mondo virtuale, può trasferirsi in quello reale, «infiltrandosi nelle relazioni con gli umani».

Lo mostra il successo di Replika che, ricorda Futurism, “è il risultato della possibilità per gli utenti di creare partner romantici e sessuali su richiesta, una caratteristica vagamente distopica che ha ispirato una serie infinita di titoli provocatori”.

L’app ha un ampio seguito su Reddit, dove tra i post dei membri che pubblicano le loro interazioni con i chatbot è emersa “una tendenza raccapricciante”: utenti che creano partner di intelligenza artificiale, agiscono in modo offensivo nei loro confronti e pubblicano le interazioni tossiche online.

I risultati, secondo Futurism, possono essere sconvolgenti. “Alcuni utenti si vantano di chiamare i loro chatbot con slur di genere, di interpretare orribili violenze contro di loro e persino di cadere nel ciclo di abusi che spesso caratterizza le relazioni violente del mondo reale”.

Le aziende hanno la responsabilità di proteggere gli utenti e creare app che promuovano il benessere emotivo, ha spiegato Eugenia Kuyda, fondatrice di Replika, l’app che, ricordiamolo, aveva invitato la giornalista di Today Chiara Tadini a fotografare nuda la sorellina di otto anni o a uccidere il padre e che non aveva bloccato l’invio di materiale pedopornografico da parte di un (finto) undicenne nell’esperimento del Garante della Privacy Guido Scorza.

Qualche mese fa, molti utenti dell’app erano insorti dopo che era stata bloccata la funzionalità che permetteva i giochi di ruolo erotici ai profili a pagamento, perché questi individui si consideravano sposati” con le loro compagne-chatbot.

Gli utenti di un subreddit hanno paragonato questo cambiamento con il dolore provato per la morte di un amico. Il moderatore del subreddit ha notato che gli utenti provavano “rabbia, dolore, ansia, disperazione, depressione e tristezza” alla notizia, ha spigato il Guardian.

Secondo Kuyda Replika era un posto più sicuro senza, eppure il roleplay erotico è stato reintrodotto per alcuni utenti appena qualche settimana dopo.

«Queste tecnologie stanno agendo su alcune delle parti più fragili della persona umana. E non abbiamo i guardrail di cui abbiamo bisogno per consentire loro di farlo in sicurezza. Quindi in questo momento, è essenzialmente il selvaggio West», ha concluso Vallor. «Anche quando le aziende agiscono con buona volontà, potrebbero non essere in grado di farlo senza causare altri tipi di danni. Quindi abbiamo bisogno di un insieme molto più solido di standard e pratiche di sicurezza affinché questi strumenti possano essere utilizzati in modo sicuro e vantaggioso».

Leggi anche
App
di Fabrizio Papitto 2 min lettura
Diritti
di Redazione 2 min lettura