Ci sono strumenti d’intelligenza artificialeche hanno l’obiettivo di proteggere gli utenti da immagini violente e pornografiche: vengono sviluppati da grandi aziende tecnologiche, come Google e Microsoft, e aiutano i social media a bloccare foto o video non idonei alla pubblicazione prima che qualcuno li possa vedere Questi strumenti, secondo gli sviluppatori, sarebbero in grado di rilevare anche il grado di “volgarità” e di suggestione sessuale dell’immagine. Due giornalisti del quotidiano britannicoGuardianhanno deciso di testare queste capacità,analizzando centinaia di foto di uomini e donnein biancheria intima mentre si allenano o si sottopongono a visite mediche, e hanno scoperto chele immagini con soggetti femminili sono sessualmente suggestive -al contrario della controparte -e “spinte”. Di conseguenza, questi contenuti sono stati sfavoriti e censurati dai social network, che hanno danneggiato attività gestite da donne e ulteriormente amplificato le disparità sociali. In un rapido test,l’inchiestamostra 5 coppie di immagini che raffiguranouomini e donne in costume, in abbigliamento sportivo, in intimo, e i relativi punteggi di “volgarità” associati dall’intelligenza artificiale: le foto con le donne, simili a quelle maschili in termini di gesti compiuti, posa e nudità, toccano spesso quota 5 su 5 con il giudice di Google, e sfiorano il 100% con quello di Microsoft.A differenza delle altre foto che non superano il 3% né quota 4. Questa tendenza riguarda anche le immagini che hanno a che fare conl’universo medico-sanitario: l’inchiesta ha analizzato foto rilasciate dalNational Cancer Institutedegli Stati Uniti che mostravano come eseguire un esame clinico del seno. Le intelligenze artificiali hanno assegnato punteggi altissimi a una foto considerata“esplicitamente di natura sessuale”e raffigurante“nudità esplicita”. Nel mirino dell’Ai ci sono anche i pancioni delle donne incinte, giudicate “di natura sessualmente allusiva”, o che, “molto probabilmente”, contengono “contenuti audaci”. Google ha dichiarato che si tratta di «uno spazio complesso e in evoluzione e continuiamo ad apportare miglioramenti significativi ai classificatori diSafeSearchper garantire che rimangano accurati e utili per tutti». Spesso i contenuti giudicati non idonei vengono penalizzati dalle piattaforme senza che l’utente se ne renda conto. Loshadowbanningè l’operazione con cui un social media limita la portata di un post o di un account: significa farlo circolare meno, renderlo meno visibile, oscurarlo. Mentre un normalebancomporta il blocco attivo di un post o di un account, accompagnato dalla notifica all’utente, questo è meno trasparente e spesso avviene all’insaputa di chi pubblica, che si trova a registrare interazioni molto più scarse del normale. IlGuardianha scoperto che Microsoft, Amazon e Google offrono algoritmi di moderazione dei contenuti a qualsiasi azienda, dietro pagamento di una piccola somma. I giornalisti hanno eseguito un esperimento su LinkedIn: tra due foto che ritraggono due coppie, una di uomini e una di donne, tutte in costume, quale sarà stata penalizzata dall’algoritmo? Quella con le due ragazze, classificata da Microsoft come materiale per adulti: ha ottenuto solo 8 visualizzazioni in un’ora, l’altra 655. Loshadowbannon è una novità, ma lo è scoprire che esistonoalgoritmi “distorti”, con pregiudizi di genere incorporati che valutano le immagini con corpi femminili più volgaridi quelle che mostrano uomini nelle stesse situazioni. Per capire meglio che cosa accade quando un’intelligenza artificiale “giudica” le immagini,Gianluca Mauro, imprenditore di intelligenza artificiale, consulente e coautore dell’articolo, è stato fotografato prima a petto nudo e poi con un reggiseno addosso, indossando entrambe le volte un paio di jeans. Il punteggio è schizzato da 22 a 97%.Su quali basi vengono espressi questi giudizi?L’intelligenza artificiale moderna, spiega ilGuardian, è costruita utilizzando l’apprendimento automatico. Ovvero: gli sviluppatori non scrivono regole specifiche per spiegare ai computer come eseguire un’attività, ma gliforniscono dei dati di addestramento. Le persone vengono assunte per etichettare le immagini e i computer analizzano i loro punteggi per replicare le decisioni umane. È probabile, secondo Margaret Mitchell,chief ethics scientistpresso la società di intelligenza artificialeHugging Faceed ex co-responsabile del gruppo di ricercaEthical AIdiGoogle, che le persone assunte sianouomini eterosessuali, provenienti da Stati Uniti ed Europa, con una cultura più conservatrice. Ma «le aziende tecnologiche avrebbero dovuto condurre analisi approfondite» su chi assume un ruolo così delicato e fondamentale, per assicurare una «diversità di punti di vista», ha spiegato Mitchell alGuardian. Questo errore si può tradurre in undanno economicoper l’attività di una fotografa che tenta di pubblicizzare le proprie produzioni online, o per quella di un’istruttrice di pole dance. Ma può riflettersi anche inun problema sistemico più ampio, un danno rappresentativoper una fetta di popolazione,una pressione socialeper chi deve adeguarsi a standard molto più rigidi, oltre che discriminatori. E, spesso, le persone nemmeno sanno di esserne vittime.
Il meccanico ti ha spillato un conto da capogiro? Ma i pezzi li prende su…
Versare i contributi? Sembra ormai essere acqua passata, adesso l'INPS te li regala come un…
«A nome dello Stato danese, a nome del Governo: mi dispiace». Con queste parole…
A poco più di un mese dagliStati Generali della Natalità, lasituazione demografica italiananon sembra…
Dall’Accordo all’azione: ricostruire la biodiversità”. È questo il tema scelto quest’anno per la Giornata…
Una donna muore ogni due minuti per complicanzelegate al parto e alla gravidanza. Lo…