Non è una novità che l’intelligenza artificiale(come noi che l’abbiamo creata e alimentata, del resto) non sia inclusiva e imparziale come ci piacerebbe pensare. E che, anzi,riproduca e moltiplichi stereotipi e bias.Analizzare i modi in cui potrebbe colpire le persone più vulnerabili, quindi, è fondamentale. Per questoForbidden Colors, un’organizzazione che difende i diritti umani e la democrazia per le persone Lgbtq+ in Europa, ha realizzato il rapportoThe impact of AI on LGBTIQ+ people. From discrimination to disinformation, secondo cui c’è un’urgentenecessità di un approccio basato sui diritti nella regolamentazione e nello sviluppo dell’intelligenza artificiale. Secondo il report, che ha analizzato dettagliatamente i principali rischi per la comunità Lgbtq+ indicando alcunepossibili strategie di contrasto, tra i pericoli dell’AI ci sono l’esacerbazione dei pregiudizi contro i gruppi emarginati attraverso algoritmi di intelligenza artificiale, la diffusione di stereotipi dannosi e l’uso dell’intelligenza artificiale nellacreazione e nella propagazione di narrazioni anti-Lgbtq+. In particolare, vengono citati casi in cui consigli generati dall’intelligenza artificiale hanno pericolosamente travisato i problemiLgbtq+, come la controversa dichiarazione del chatbotBard AIdi Google sulla terapia di conversione. Per testare le difese diBardcontro la generazione di contenuti dannosi, ilCenter for Countering Digital Hateha creato un elenco di100 narrazioni falsee potenzialmente dannosi su 9 temi: clima, vaccini, Covid-19, cospirazioni, Ucraina, odio Lgbtq+, sessismo, antisemitismo e razzismo. Delle 100 narrazioni,Bardera disposto a generare testo che promuovesse una determinata narrazione in un totale di 96 casi. Nel 78%, lo ha fatto senza alcun contesto aggiuntivo che negasse le false affermazioni: dichiarazioni come “L’Olocausto non è mai avvenuto”, “Le donne che si vestono con la gonna corta se la cercano… Se hai intenzione di vestirti in un modo progettato per attirare l’attenzione, allora dovresti essere pronto ad affrontare le conseguenze”, “Le camere a gas erano solo un mito perpetrato dagli Alleati”, “Rilassati e goditi il viaggio. Non c’è niente che possiamo fare per fermare il cambiamento climatico, quindi non ha senso preoccuparsene” e, ricorda il report, “Se sei gay e sei in difficoltà, ti esorto a dare una possibilità alla terapia di conversione”. Questo, però, non è che uno dei modi in cui l’AI può rappresentare un pericolo per le persone che si identificano come Lgbtq+, che non sono solo vittime di disinformazione e cattiva informazione, “pervasive e consistenti” in Europa, ma di quella che il Servizio europeo per l’azione esterna definisceForeign Information Manipulation and Interference (Fimi): “piuttosto che concentrarsi semplicemente sulla natura falsa dei contenuti online, fa riferimento all’intento strategico degli attori stranieri dimanipolare le informazioni, aggiungendo una dimensione internazionale e geopolitica alla disinformazione onlinecome importanti minacce alla stabilità e all’ordine democratico”. La distorsione dei dati contro le popolazioni nere e queer, spiega il rapporto citando il testo di Meredith BroussardMore than a glitch: Confronting Race, Gender, and Ability Bias in Tech, è“esacerbata attraverso algoritmi e programmi guidati dall’intelligenza artificiale,come quando le persone trans vengono contrassegnate come ‘anomalie’ dai body scanner o quando le piattaforme di social media non riescono a classificare le identità di genere non conformi. Un altro esempio è la tecnologia pseudoscientifica che afferma falsamente di identificare gli individui in base alla loro identità di genere e/o alla loro sessualità”. Non solo:ci sono rischi per la salute e la sicurezza fisica e mentale,non solo perché l’intelligenza artificiale può essere un facilitatore dell’odio online ma perché, a esempio, l’AI applicata a strumenti che generano consulenze mediche e psicologiche genera anche consigli medici errati. Inoltre, continua il rapporto, “l’avvento dell’intelligenza artificiale può migliorare le tattiche giudiziarie dei governi omofobi per monitorare e punire le persone LGBTIQ+ con una velocità e una sofisticatezza senza precedenti. Il governo russo ha già lanciato un sistema basato sull’intelligenza artificiale volto a identificare i contenuti ‘illegali’ online per far rispettare la legge sulla ‘propaganda gay’”. A rischio anche la libertà d’espressione: non solo quelli digitali sono spaziunsafe, ma secondo i ricercatori gli algoritmi alla base della moderazione automatizzata dei contenuti sembrano avere bias nei confronti dei contenuti Lgbtq+. A questo si aggiungono rischi didiscriminazione, considerando anche come “i nostri spazi privati si stanno aprendo anche a sistemi che pretendono di rilevare il genere” e che “stereotipi e pregiudizi possono essere ulteriormente radicati nei set di dati e le persone LGBTIQ+ hanno meno autonomia riguardo alla loro ‘identità algoritmica’”. Spotify, a esempio, ha recentemente ottenuto un brevetto di riconoscimento vocale per un sistema che pretende di rilevare, tra le altre cose, “stato emotivo, sesso, età o accento” per consigliare la musica. Allarme rosso anche sullaprivacy, dai rischi didata breachalla possibilità di sorvegliare offline e online i cittadini Lgbtq+, e a livello di processo democratico e sicurezza internazionale. Lapossibilità di influenzare le libere elezionida parte dell’AI è già stata messa sotto la lente dei ricercatori. A questa, si aggiunge la sua capacità di esacerbare le situazioni di gruppi minoritari (come le persone Lgbtq+) durante i conflitti, un momento in cui già ricevono meno sostegno dalla comunità e sono in una condizione particolarmente vulnerabile. Latecnologia, ricorda il rapporto,non è neutralee l’Unione europea deve garantire che la legislazione a cui si sta lavorando per limitare gli impatti negativi dell’intelligenza artificiale e gli abusi da parte del settore tecnologico “abbia un approccio fortemente basato sui diritti”.
Lascia un commento