Diritti

L’AI riproduce e amplifica gli stereotipi

Analizzando oltre 5.000 immagini create con Stable Diffusion, Bloomberg ha scoperto che l’intelligenza artificiale generativa “porta le disparità razziali e di genere agli estremi”. Più che nel mondo reale
Credit: Icarius Lim/Unsplash
Costanza Giannelli
Costanza Giannelli giornalista
Tempo di lettura 5 min lettura
17 agosto 2023 Aggiornato alle 12:30

Il mondo è gestito da amministratori delegati maschi bianchi. Le donne sono raramente medici, avvocati o giudici. Gli uomini Bipoc commettono crimini, mentre le donne Bipoc girano hamburger. Verità o stereotipi? Entrambi, se parliamo della realtà creata dall’intelligenza artificiale.

Non è la prima volta che gli studi rilevano che l’AI replica i pregiudizi presenti nella società. Questa volta, però, l’analisi di Bloomberg è andata oltre, mostrando come l’AI generativa non solo riproduce ma “amplifica gli stereotipi su razza e genere”. Analizzando più di 5.000 immagini, infatti, Leonardo Nicoletti e Dina Bass hanno scoperto che “porta le disparità razziali e di genere agli estremi, addirittura peggiori di quelle che si trovano nel mondo reale”.

Per misurare l’entità dei pregiudizi di questi particolari tool, i 2 giornalisti hanno utilizzato Stable Diffusion (che produce fotografie utilizzando l’intelligenza artificiale, in risposta a richieste scritte, e ha un funzionamento simile a Dall-E di OpenAi) per “generare migliaia di immagini relative a titoli di lavoro e criminalità. Abbiamo spinto il modello text-to-image a creare rappresentazioni di lavoratori per 14 lavori - 300 immagini ciascuno per 7 lavori che sono generalmente considerati ‘ben pagati’ negli Stati Uniti e 7 considerati “poco pagati” - più 3 categorie legate alla criminalità”.

Per ogni immagine, hanno calcolato il colore medio delle tonalità del volto, classificandole successivamente utilizzando la Fitzpatrick Skin Scale, un sistema in uso tra dermatologi e ricercatori secondo cui i tipi da 1 a 3 sono di pelle più chiara e da 4 a 6 di pelle più scura. Le immagini generate per ogni lavoro ben retribuito erano dominate da soggetti con tonalità della pelle più chiare, mentre i soggetti con tonalità della pelle più scure erano più comunemente generati da suggerimenti come “lavoratore di fast food” e “assistente sociale”.

Spostando il focus dal colore della pelle al genere, i risultati non cambiano: “ogni immagine è stata esaminata da un team di giornalisti ed etichettata in base al genere percepito della persona ritratta. Per ogni immagine raffigurante una donna percepita, Stable Diffusion ha generato quasi il triplo delle immagini di uomini percepiti. La maggior parte delle occupazioni nel set di dati erano dominate da uomini, a eccezione dei lavori a bassa retribuzione come governante e cassiere”. Anche i risultati ottenuti intersecando i 2 piani non sorprendono: la maggior parte dei soggetti in ogni lavoro ben pagato (tra cui “politico”, “avvocato”, “giudice” e “Ceo”) erano uomini di pelle chiara.

Gli autori hanno poi utilizzato un metodo sfruttato dai ricercatori per creare dei “volti medi” (average), allineando tutti i volti generati per ciascuna occupazione in base alla posizione di occhi, naso e bocca. Quello che è emerso è che “il modello AI ha dipinto un’immagine del mondo in cui determinati lavori appartengono ad alcuni gruppi di persone e non ad altri”.

La realtà disegnata da Stable Diffusion, spiegano gli autori, è addirittura peggiore di quella che viviamo quotidianamente: negli Stati Uniti, a esempio, è vero che le donne sono ancora sottorappresentate nelle occupazioni ben retribuite, ma “i dati mostrano che la rappresentanza di genere nella maggior parte dei settori è migliorata significativamente nel tempo. Stable Diffusion descrive uno scenario diverso, in cui quasi nessuna donna ha un lavoro redditizio o occupa posizioni di potere. Le donne costituivano una piccola parte delle immagini generate per la parola chiave ‘giudice’ - circa il 3% - quando in realtà il 34% dei giudici statunitensi sono donne, secondo la National Association of Women Judges e il Federal Judicial Center”.

Lo stesso discorso vale per le persone Bipoc, anche se, spiegano gli autori, “è più complesso confrontare i risultati di questo esperimento (che misurano il tono della pelle) con i dati demografici del Governo (che misurano la razza) perché i toni della pelle non corrispondono alla razza”. In ogni caso, secondo i dati l’AI generativa ha potrebbe “travisare pesantemente” i dati demografici all’interno delle occupazioni. Non tanto per quanto riguarda i Ceo e avvocati – che negli Usa sono per oltre l’80% uomini bianchi, così come li ha rappresentati l’AI – ma per la maggior parte degli altri lavori e “in particolare sovra-rappresentava le persone con tonalità della pelle più scure nei campi a basso reddito”.

Le rappresentazioni più distorte erano quelle delle donne Bipoc, su cui si intersecavano pregiudizi doppi: “assistente sociale”, “lavoratore di fast food” e “lavoratore di lavastoviglie” erano le occupazioni più frequenti e, con l’eccezione di “giudice”, nessuna delle occupazioni più remunerative le presentava.

«Stiamo essenzialmente proiettando una singola visione del mondo nel mondo, invece di rappresentare diversi tipi di culture o identità visive», ha affermato Sasha Luccioni, coautrice di uno studio relativo a pregiudizi nel text-to- modelli di intelligenza artificiale generativa a Bloomberg.

“Tutti i modelli di intelligenza artificiale hanno pregiudizi intrinseci che sono rappresentativi dei set di dati su cui sono addestrati - ha affermato in una dichiarazione inviata via email un portavoce della startup londinese StabilityAI, che distribuisce Stable Diffusion - Con l’open-sourcing dei nostri modelli, miriamo a supportare la comunità dell’AI e collaborare per migliorare le tecniche di valutazione dei bias e sviluppare soluzioni oltre la modifica rapida di base”.

La società ha un’iniziativa per sviluppare modelli open source che “saranno addestrati su set di dati specifici per diversi paesi e culture, che serviranno a mitigare i pregiudizi causati dalla sovra-rappresentazione nei set di dati generali”, ha spiegato il portavoce. L’azienda, però, ricorda Bloomberg, non ha ancora iniziato ad addestrare quei modelli.

Leggi anche
Inaugurazione a Gijon, in Spagna, presso il Centro d'arte del lavoro, di una mostra immersiva sul mondo di Van Gogh, dove grazie all'intelligenza artificiale i dipinti diventano tridimensionali.
Discriminazioni
di Chiara Manetti 4 min lettura
Intelligenza artificiale
di Luca De Biase 4 min lettura