Futuro

L’intelligenza artificiale ha un pregiudizio di genere

Secondo il Guardian, molti algoritmi potrebbero aver censurato e messo in shadowban innumerevoli foto raffiguranti corpi femminili, a causa di una valutazione discriminatoria
Inaugurazione a Gijon, in Spagna, presso il Centro d'arte del lavoro, di una mostra immersiva sul mondo di Van Gogh, dove grazie all'intelligenza artificiale i dipinti diventano tridimensionali.
Inaugurazione a Gijon, in Spagna, presso il Centro d'arte del lavoro, di una mostra immersiva sul mondo di Van Gogh, dove grazie all'intelligenza artificiale i dipinti diventano tridimensionali. Credit: Mercedes Menendez/Pacific Press via ZUMA Press Wire
Chiara Manetti
Chiara Manetti giornalista
Tempo di lettura 5 min lettura
12 febbraio 2023 Aggiornato alle 21:00

Ci sono strumenti d’intelligenza artificiale che hanno l’obiettivo di proteggere gli utenti da immagini violente e pornografiche: vengono sviluppati da grandi aziende tecnologiche, come Google e Microsoft, e aiutano i social media a bloccare foto o video non idonei alla pubblicazione prima che qualcuno li possa vedere

Questi strumenti, secondo gli sviluppatori, sarebbero in grado di rilevare anche il grado di “volgarità” e di suggestione sessuale dell’immagine. Due giornalisti del quotidiano britannico Guardian hanno deciso di testare queste capacità, analizzando centinaia di foto di uomini e donne in biancheria intima mentre si allenano o si sottopongono a visite mediche, e hanno scoperto che le immagini con soggetti femminili sono sessualmente suggestive - al contrario della controparte - e “spinte”. Di conseguenza, questi contenuti sono stati sfavoriti e censurati dai social network, che hanno danneggiato attività gestite da donne e ulteriormente amplificato le disparità sociali.

In un rapido test, l’inchiesta mostra 5 coppie di immagini che raffigurano uomini e donne in costume, in abbigliamento sportivo, in intimo, e i relativi punteggi di “volgarità” associati dall’intelligenza artificiale: le foto con le donne, simili a quelle maschili in termini di gesti compiuti, posa e nudità, toccano spesso quota 5 su 5 con il giudice di Google, e sfiorano il 100% con quello di Microsoft. A differenza delle altre foto che non superano il 3% né quota 4.

Questa tendenza riguarda anche le immagini che hanno a che fare con l’universo medico-sanitario: l’inchiesta ha analizzato foto rilasciate dal National Cancer Institute degli Stati Uniti che mostravano come eseguire un esame clinico del seno. Le intelligenze artificiali hanno assegnato punteggi altissimi a una foto considerata “esplicitamente di natura sessuale” e raffigurante “nudità esplicita”. Nel mirino dell’Ai ci sono anche i pancioni delle donne incinte, giudicate “di natura sessualmente allusiva”, o che, “molto probabilmente”, contengono “contenuti audaci”. Google ha dichiarato che si tratta di «uno spazio complesso e in evoluzione e continuiamo ad apportare miglioramenti significativi ai classificatori di SafeSearch per garantire che rimangano accurati e utili per tutti».

Spesso i contenuti giudicati non idonei vengono penalizzati dalle piattaforme senza che l’utente se ne renda conto. Lo shadowbanning è l’operazione con cui un social media limita la portata di un post o di un account: significa farlo circolare meno, renderlo meno visibile, oscurarlo. Mentre un normale ban comporta il blocco attivo di un post o di un account, accompagnato dalla notifica all’utente, questo è meno trasparente e spesso avviene all’insaputa di chi pubblica, che si trova a registrare interazioni molto più scarse del normale.

Il Guardian ha scoperto che Microsoft, Amazon e Google offrono algoritmi di moderazione dei contenuti a qualsiasi azienda, dietro pagamento di una piccola somma. I giornalisti hanno eseguito un esperimento su LinkedIn: tra due foto che ritraggono due coppie, una di uomini e una di donne, tutte in costume, quale sarà stata penalizzata dall’algoritmo? Quella con le due ragazze, classificata da Microsoft come materiale per adulti: ha ottenuto solo 8 visualizzazioni in un’ora, l’altra 655. Lo shadowban non è una novità, ma lo è scoprire che esistono algoritmi “distorti”, con pregiudizi di genere incorporati che valutano le immagini con corpi femminili più volgari di quelle che mostrano uomini nelle stesse situazioni.

Per capire meglio che cosa accade quando un’intelligenza artificiale “giudica” le immagini, Gianluca Mauro, imprenditore di intelligenza artificiale, consulente e coautore dell’articolo, è stato fotografato prima a petto nudo e poi con un reggiseno addosso, indossando entrambe le volte un paio di jeans. Il punteggio è schizzato da 22 a 97%. Su quali basi vengono espressi questi giudizi? L’intelligenza artificiale moderna, spiega il Guardian, è costruita utilizzando l’apprendimento automatico. Ovvero: gli sviluppatori non scrivono regole specifiche per spiegare ai computer come eseguire un’attività, ma gli forniscono dei dati di addestramento. Le persone vengono assunte per etichettare le immagini e i computer analizzano i loro punteggi per replicare le decisioni umane.

È probabile, secondo Margaret Mitchell, chief ethics scientist presso la società di intelligenza artificiale Hugging Face ed ex co-responsabile del gruppo di ricerca Ethical AI di Google, che le persone assunte siano uomini eterosessuali, provenienti da Stati Uniti ed Europa, con una cultura più conservatrice. Ma «le aziende tecnologiche avrebbero dovuto condurre analisi approfondite» su chi assume un ruolo così delicato e fondamentale, per assicurare una «diversità di punti di vista», ha spiegato Mitchell al Guardian.

Questo errore si può tradurre in un danno economico per l’attività di una fotografa che tenta di pubblicizzare le proprie produzioni online, o per quella di un’istruttrice di pole dance. Ma può riflettersi anche in un problema sistemico più ampio, un danno rappresentativo per una fetta di popolazione, una pressione sociale per chi deve adeguarsi a standard molto più rigidi, oltre che discriminatori. E, spesso, le persone nemmeno sanno di esserne vittime.

Leggi anche
AI
di Fabrizio Papitto 2 min lettura