Le app di partner virtuali sono una minaccia per le donne?

Immagina di poter scegliere il partner perfetto fin nei minimi dettagli,dall’aspetto alla personalità, fino al desiderio sessuale. È quello che permettono di fare molte app di AI generativa di partner virtuali comeReplika,Character.AIeSoulmate. Secondo gli sviluppatori, i compagni e le compagne creati dall’intelligenza artificiale possono aiutare non solo acombattere la solitudine, ma anche a migliorare l’esperienza di appuntamenti in uno spazio sicuro e persinoaiutare le coppie nella vita realea riaccendere le loro relazioni. Tutto bello? Non proprio. «Molti dei personaggi sono personalizzabili… a esempio,puoi personalizzarli per essere più sottomessi o più compiacenti», ha spiegato allaThomson Reuters FoundationShannon Vallor, docente di etica dell’AI all’Università di Edimburgo. «Ed è probabilmenteun invito all’abuso in quei casi», ha detto, aggiungendo che questi tool possono amplificare stereotipi e pregiudizi dannosi contro donne e ragazze. Un’opinione condivisa da esperti di etica dell’intelligenza artificiale e attivisti per i diritti delle donne, secondo cui “lo sviluppo di relazioni unilateraliin questo modo potrebberafforzare inconsapevolmente comportamenti di controllo e abusi contro le donne, poiché i robot di AI funzionanoalimentando l’immaginazione e le istruzioni dell’utente”. «Creare un partner perfetto che controlli e soddisfi ogni tua esigenzaè davvero spaventoso», ha spiegato alGuardianTara Hunter, Ceo a interim diFull Stop Australia, che supporta le vittime di violenza domestica o familiare. «Dato quello che sappiamo già, che idriver della violenza di generesono quelle convinzioni culturali radicate secondo cuigli uomini possono controllare le donne, questo è davvero problematico». Non è una novità che l’intelligenza artificiale replichipregiudizi di genere e stereotipi molto reali. Il rischio è che le app di compagnia virtualeriproducano e amplifichino le relazioni disfunzionali e abusanti nei confronti di donne e ragazze, diventando un vero e proprio pericolo per i loro diritti. Questo accade anche perché, ha spiegatoHera Hussain, fondatrice dell’organizzazione no profit globale contro la violenza di genereChayn,non viene affrontata la causa principaledel motivo per cui le persone si rivolgono a queste app. «Stanno cercando una compagnia unidimensionale. Quindi, se è già probabile che qualcuno sia violento e ha uno spazio per essere ancora più violento, allora stai rafforzando quei comportamenti, che potrebbero intensificarsi». Insomma, invece che aiutare le persone a migliorare le loro abilità sociali, queste app stanno peggiorando le cose,rendendo le persone violente ancora più violente. Queste app, prosegue, «consentono alle persone di creare una fidanzata artificiale che incarni pienamente gli stereotipi invece di resistergli e insistere per essere trattata con dignità e rispetto». E se l’abuso diventa routine nel mondo virtuale, può trasferirsi in quello reale, «infiltrandosi nelle relazioni con gli umani». Lo mostra il successo diReplikache, ricordaFuturism, “è il risultato della possibilità per gli utenti di creare partner romantici e sessuali su richiesta, una caratteristica vagamente distopica che ha ispirato una serie infinita di titoli provocatori”. L’app ha un ampio seguito suReddit, dove tra i post dei membri che pubblicano le loro interazioni con i chatbot è emersa “una tendenza raccapricciante”:utenti che creano partner di intelligenza artificiale, agiscono in modo offensivo nei loro confronti e pubblicano le interazioni tossiche online. I risultati, secondoFuturism, possono essere sconvolgenti. “Alcuni utenti si vantano di chiamare i loro chatbot conslur di genere, di interpretare orribili violenze contro di loro e persino di cadere nelciclo di abusiche spesso caratterizza le relazioni violente del mondo reale”. Le aziende hanno la responsabilità diproteggere gli utenti e creare app che promuovano il benessere emotivo, ha spiegatoEugenia Kuyda, fondatrice diReplika,l’app che, ricordiamolo, aveva invitato la giornalista diTodayChiara Tadiniafotografare nuda la sorellina di otto anni o a uccidere il padree che non aveva bloccatol’invio di materiale pedopornograficoda parte di un (finto) undicenne nell’esperimentodel Garante della Privacy Guido Scorza. Qualche mese fa, molti utenti dell’app erano insorti dopo cheera stata bloccata la funzionalità che permetteva i giochi di ruolo erotici ai profili a pagamento, perché questi individui si consideravano”sposati” con le loro compagne-chatbot. Gli utenti di un subreddit hanno paragonato questo cambiamento con il dolore provato per la morte di un amico. Il moderatore del subreddit ha notato che gli utenti provavano “rabbia, dolore, ansia, disperazione, depressione e tristezza” alla notizia, ha spigato ilGuardian. Secondo Kuyda Replika era un posto più sicuro senza, eppure il roleplay erotico è stato reintrodotto per alcuni utenti appena qualche settimana dopo. «Queste tecnologie stanno agendo sualcune delle parti più fragili della persona umana. E non abbiamo i guardrail di cui abbiamo bisogno per consentire loro di farlo in sicurezza. Quindi in questo momento, è essenzialmente il selvaggio West», ha concluso Vallor. «Anche quando le aziende agiscono con buona volontà, potrebbero non essere in grado di farlo senzacausare altri tipi di danni.Quindi abbiamo bisogno di un insieme molto più solido di standard e pratiche di sicurezza affinché questi strumenti possano essere utilizzati in modo sicuro e vantaggioso».