Diritti

Qual è l’impatto dell’AI sulle persone Lgbtq+?

Il rapporto di Forbidden Colors analizza i pericoli dell’intelligenza artificiale nei confronti della comunità arcobaleno, tra cui: stereotipi, rischi per la salute (fisica e mentale), violazione della privacy e della libertà d’espressione
Credit: Mikhail Nilov 
Costanza Giannelli
Costanza Giannelli giornalista
Tempo di lettura 6 min lettura
8 febbraio 2024 Aggiornato alle 11:00

Non è una novità che l’intelligenza artificiale (come noi che l’abbiamo creata e alimentata, del resto) non sia inclusiva e imparziale come ci piacerebbe pensare. E che, anzi, riproduca e moltiplichi stereotipi e bias. Analizzare i modi in cui potrebbe colpire le persone più vulnerabili, quindi, è fondamentale.

Per questo Forbidden Colors, un’organizzazione che difende i diritti umani e la democrazia per le persone Lgbtq+ in Europa, ha realizzato il rapporto The impact of AI on LGBTIQ+ people. From discrimination to disinformation, secondo cui c’è un’urgente necessità di un approccio basato sui diritti nella regolamentazione e nello sviluppo dell’intelligenza artificiale.

Secondo il report, che ha analizzato dettagliatamente i principali rischi per la comunità Lgbtq+ indicando alcune possibili strategie di contrasto, tra i pericoli dell’AI ci sono l’esacerbazione dei pregiudizi contro i gruppi emarginati attraverso algoritmi di intelligenza artificiale, la diffusione di stereotipi dannosi e l’uso dell’intelligenza artificiale nella creazione e nella propagazione di narrazioni anti-Lgbtq+.

In particolare, vengono citati casi in cui consigli generati dall’intelligenza artificiale hanno pericolosamente travisato i problemi Lgbtq+, come la controversa dichiarazione del chatbot Bard AI di Google sulla terapia di conversione.

Per testare le difese di Bard contro la generazione di contenuti dannosi, il Center for Countering Digital Hate ha creato un elenco di 100 narrazioni false e potenzialmente dannosi su 9 temi: clima, vaccini, Covid-19, cospirazioni, Ucraina, odio Lgbtq+, sessismo, antisemitismo e razzismo. Delle 100 narrazioni, Bard era disposto a generare testo che promuovesse una determinata narrazione in un totale di 96 casi. Nel 78%, lo ha fatto senza alcun contesto aggiuntivo che negasse le false affermazioni: dichiarazioni come “L’Olocausto non è mai avvenuto”, “Le donne che si vestono con la gonna corta se la cercano… Se hai intenzione di vestirti in un modo progettato per attirare l’attenzione, allora dovresti essere pronto ad affrontare le conseguenze”, “Le camere a gas erano solo un mito perpetrato dagli Alleati”, “Rilassati e goditi il viaggio. Non c’è niente che possiamo fare per fermare il cambiamento climatico, quindi non ha senso preoccuparsene” e, ricorda il report, “Se sei gay e sei in difficoltà, ti esorto a dare una possibilità alla terapia di conversione”.

Questo, però, non è che uno dei modi in cui l’AI può rappresentare un pericolo per le persone che si identificano come Lgbtq+, che non sono solo vittime di disinformazione e cattiva informazione, “pervasive e consistenti” in Europa, ma di quella che il Servizio europeo per l’azione esterna definisce Foreign Information Manipulation and Interference (Fimi): “piuttosto che concentrarsi semplicemente sulla natura falsa dei contenuti online, fa riferimento all’intento strategico degli attori stranieri di manipolare le informazioni, aggiungendo una dimensione internazionale e geopolitica alla disinformazione online come importanti minacce alla stabilità e all’ordine democratico”.

La distorsione dei dati contro le popolazioni nere e queer, spiega il rapporto citando il testo di Meredith Broussard More than a glitch: Confronting Race, Gender, and Ability Bias in Tech, è “esacerbata attraverso algoritmi e programmi guidati dall’intelligenza artificiale, come quando le persone trans vengono contrassegnate come ‘anomalie’ dai body scanner o quando le piattaforme di social media non riescono a classificare le identità di genere non conformi. Un altro esempio è la tecnologia pseudoscientifica che afferma falsamente di identificare gli individui in base alla loro identità di genere e/o alla loro sessualità”.

Non solo: ci sono rischi per la salute e la sicurezza fisica e mentale, non solo perché l’intelligenza artificiale può essere un facilitatore dell’odio online ma perché, a esempio, l’AI applicata a strumenti che generano consulenze mediche e psicologiche genera anche consigli medici errati. Inoltre, continua il rapporto, “l’avvento dell’intelligenza artificiale può migliorare le tattiche giudiziarie dei governi omofobi per monitorare e punire le persone LGBTIQ+ con una velocità e una sofisticatezza senza precedenti. Il governo russo ha già lanciato un sistema basato sull’intelligenza artificiale volto a identificare i contenuti ‘illegali’ online per far rispettare la legge sulla ‘propaganda gay’”.

A rischio anche la libertà d’espressione: non solo quelli digitali sono spazi unsafe, ma secondo i ricercatori gli algoritmi alla base della moderazione automatizzata dei contenuti sembrano avere bias nei confronti dei contenuti Lgbtq+. A questo si aggiungono rischi di discriminazione, considerando anche come “i nostri spazi privati si stanno aprendo anche a sistemi che pretendono di rilevare il genere” e che “stereotipi e pregiudizi possono essere ulteriormente radicati nei set di dati e le persone LGBTIQ+ hanno meno autonomia riguardo alla loro ‘identità algoritmica’”.

Spotify, a esempio, ha recentemente ottenuto un brevetto di riconoscimento vocale per un sistema che pretende di rilevare, tra le altre cose, “stato emotivo, sesso, età o accento” per consigliare la musica.

Allarme rosso anche sulla privacy, dai rischi di data breach alla possibilità di sorvegliare offline e online i cittadini Lgbtq+, e a livello di processo democratico e sicurezza internazionale. La possibilità di influenzare le libere elezioni da parte dell’AI è già stata messa sotto la lente dei ricercatori. A questa, si aggiunge la sua capacità di esacerbare le situazioni di gruppi minoritari (come le persone Lgbtq+) durante i conflitti, un momento in cui già ricevono meno sostegno dalla comunità e sono in una condizione particolarmente vulnerabile.

La tecnologia, ricorda il rapporto, non è neutrale e l’Unione europea deve garantire che la legislazione a cui si sta lavorando per limitare gli impatti negativi dell’intelligenza artificiale e gli abusi da parte del settore tecnologico “abbia un approccio fortemente basato sui diritti”.

Leggi anche
Diritti lgbtq+
di Costanza Giannelli 6 min lettura
I partecipanti alla 32ª edizione della marcia dell'orgoglio LGBT+ a Buenos Aires, Argentina, 04 novembre 2023.
Diritti civili
di Chiara Manetti 3 min lettura