Categories: Diritti

Il costo umano di ChatGPT: l’AI sfrutta i lavoratori?

 

L’esperienza umana con internet è sempre stata a doppio senso. Da un lato,la rete ha favorito la globalizzazione, diventando una fonte illimitata di informazioni; dall’altro, ha portato altraffico di esseri umanie alla diffusione di propagande d’odio. Allo stesso modo, l’introduzione dell’intelligenza artificialeha comportato alcune sfide impreviste. I dibattiti sull’AIsono al centro della nostra vita quotidiana. È quasi impossibile sfuggire all’argomento. L’opinione pubblica si dividetra chi si dichiara favorevole e chi sostiene che ci toglierà il lavoro;altri non hanno ancora preso una posizione precisa, restando comunque diffidenti. Tuttavia, nonostante le nostre opinioni a riguardo,l’intelligenza artificiale non è un fenomeno passeggero,ma è qui per restare. Dopo tutto, questi stessi discorsi sono stati fatti all’epoca dell’introduzione di internet. ChatGPTè uno strumento di elaborazione del linguaggio naturale della tecnologia AI di tendenza, sviluppato daOpenAI,una società americana di ricerca e diffusione dell’intelligenza artificiale. All’insaputa del pubblico, la sua origine e la sua storia sono più complicate di quanto si possa pensare, ma come tutte le cose belle, anche questa ha un costo nascosto…il costo umano. «Era una tortura»: pagati meno di 2 dollari l’ora per filtrare i contenuti tossici di ChatGPT Un articolo di denuncia del 2023 delTimeracconta cheOpenAIha utilizzatoSama(il suo partner di outsourcing in Kenya, una società con sede a San Francisco) perassumere nel mese di novembre 2021 moderatori di contenuti. Secondo l’inchiesta,OpenAIforniva aSamauncompenso di 12,50 dollari l’ora. Tuttavia,Samapagava ai moderatori di contenuti kenioti una tariffa oraria che andavada 1,46 a 3,74 dollariper“catalogare le descrizioni testuali di abusi sessuali e incitamenti all’odio e violenza”.Questi contenuti sono stati esclusi per costruire l’algoritmo del sistema di sicurezza in linguaggio naturale di ChatGPT. La questione principale è cheOpenAIeSamasi sono servite dimoderatori di contenuti kenioti per creare un sistema ChatGPT che fosse sicuro e utile, a differenza del suo predecessore, meno popolare, GPT-3, che spesso utilizzava commenti violenti, sessisti e razzisti. Questa mansione è simile a quella dei moderatori di contenuti diFacebook, che esaminano e rimuovono materiale illegale o nocivo per prevenire le violazioni degli standard della comunità e i termini di servizio. I moderatori kenioti affermano diessere stati esposti a contenuti di abusi sessuali su minori, bestialità, necrofilia, omicidio, suicidio, tortura, autolesionismo, incestoe molto altro. Un ex moderatore di contenuti per Facebook ha descritto la sua esperienza come una «tortura», per non dire altro, mentre un altro moderatore perOpenAIha riferito alGuardianche questa mansione lo ha «distrutto completamente». È stata presentata unapetizione al Parlamento keniotaper chiedere un’indagine suOpenAIeSamaperpresunto sfruttamento umano e salarialedei propri dipendenti durante il periodo del loro impiego. Il presunto sfruttamento umano Imoderatori di contenutikenioti sostengono dinon essere stati informati a dovere;infatti, secondo questi ultimi, i contratti da loro sottoscritti non descrivevano in modo sufficientemente chiaro la natura del lavoro che avrebbero dovuto svolgere.Citizen Kenyaha rivelato che i lavoratori chiedono che il Parlamento keniota esamini “il modello di outsourcing utilizzato dalle grandi aziende Tech con sede negli Stati uniti d’America (Usa) per esportare i lavori dannosi e pericolosi in modo che siano i giovani kenioti a occuparsene”. Citizen Kenyaafferma che i dipendenti sostengono dinon aver ricevuto alcun supporto psicologicodurante il processo di formazione, il che ha portato allo sviluppo di diversidisturbi mentali di grave entità.In risposta, un portavoce diOpenAIha dichiarato aTimeche «sono stati offerti servizi di assistenza psicologica e di consulenza individuali,i lavoratori potevano rinunciare a qualsiasi incarico senza essere penalizzati, l’esposizione a contenuti espliciti avrebbe avuto un limite e le informazioni sensibili sarebbero state gestite da lavoratori appositamente preparati a farlo». Inoltre, i kenioti sono stati bruscamente licenziati quandoSamaha cancellato tutto il lavoro perOpenAInel febbraio 2022 (8 mesi prima del previsto), ritenendo che il lavoro fosse eccessivamente traumatizzante. Un problema 2 volte più grave, dal momento chei lavoratori sono rimasti senza una fonte di redditoe affetti da gravi disturbi mentali.Samaha dichiarato che il motivo dei licenziamenti risiede nella volontà della società di “concentrarsi sulla nostra competenza principale, ovvero le soluzioni di annotazione dei dati di computer vision”. Il presunto sfruttamento salariale InKenyanon esiste un salario minimo universale.La legge sui salari stabilisce, su diverse scale, gli standard minimi nel Paese per le varie tipologie di occupazione. Inoltre, la sezione 48 della Legge sulle Istituzioni del lavoro indica che è unreato per un datore di lavoro non pagare almeno la retribuzione minima prevista dalla leggeo non fornire al dipendente le condizioni di lavoro indicate nella legge sui salari. Nonostante ciò, in Kenya non esiste una normativa sui salari specifica che disciplini i livelli minimi per i moderatori di contenuti, ragion per cui il caso di specie riguarda proprio una questione di “equità”. Per esempio, la causa di Daniel Motaung contro Meta eSamain Kenya era incentrata proprio sul miglioramento delle condizioni di salute ed economiche dei moderatori di contenutikenioti. Per quanto riguarda l’accusa disfruttamento salariale,OpenAIha pagato aSamauna tariffa oraria di 12,50 dollari, che il portavoce diSamaha dichiarato essere la tariffa complessiva per il progetto. Lo stesso portavoce ha dichiarato aTimeche i lavoratori avrebbero guadagnatoda 1,46 a 3,74 dollari l’ora al netto delle tasse.Quest’ultimo ha anche dichiarato alQuartzche gli stipendi si aggiravano tra i 210 e i 323 dollari, importi che sono superiori al salario minimo di sussistenza. Alcuni dipendenti avrebbero, inoltre, guadagnato anche un bonus di 70 dollari al mese per esaminare determinati contenuti espliciti. Bisogna anche considerare ilcosto della vita in Kenyae il crescente tasso didisoccupazionegiovanile. Uno dei moderatori in carica di Sama racconta a Time Magazine: «Il lavoro che svolgiamo è una specie di tortura mentale…Viviamo alla giornata. Non riesco a risparmiare nemmeno un centesimo. A volte penso di volermi dimettere. Ma poi mi chiedo:cosa mangerà il mio bambino?». Ad oggi si prevede che OpenAI guadagnerà 1 miliardo di dollari di fatturato entro il 2024 L’iniquità economica globale nei Paesi in via di sviluppo sarà sempre fonte di manodopera a basso costo Una storia triste che spesso si verifica nei Paesi in via di sviluppo, una forma di “liberazione” dalla povertà, ma sempre a scapito di qualcosa. IlGuardianrivela infatti chegran parte del lavoro di moderazione dei contenuti per le aziende della Silicon Valleyviene svolto inAfrica orientale, in India, nelle Filippinee persino dai rifugiati, in particolare quelli che vivono a Dadaab (Kenya) e a Shatila (Libano). Samaafferma che la sua missione è quella di fornire alle persone un“lavoro digitale dignitoso”.Hanno bisogno di soldi, giusto? Ma a quale prezzo? Da una riflessione personale, questa storia si ripete ancora e addirittura detta le relazioni tra i popoli degli Stati in via di sviluppo e quelli sviluppati. Non si creda che queste riflessioni derivino dal nulla, perché, purtroppo, una volta che queste notizie balzano agli onori di cronaca, vengonorapidamente spazzate sotto al tappeto, senza che nessuno parli a nome delle vere vittime. Eppure, questo è un classico esempio di “essere bloccati tra l’incudine e il martello”. IlKenyasta affrontando quella cheNation Africadefinisce la“pandemia della disoccupazione”: più della metà dei kenioti (1,59 milioni tra i 20 e i 29 anni) non ha un lavoro; hanno bisogno di provvedere a loro stessi e alle loro famiglie, ma non ci sono posti di lavoro disponibili. C’è un diffuso senso di disperazione. Proprio da qui deriva la disponibilità delle aziende Tech straniere ad assumere personale che ricopra il ruolo dimoderatore di contenuti. Prendiamo ancora una volta come esempio il Kenya. Daniel, ex moderatore di Facebook aNairobi, ha fatto causa a Meta eSamasostenendo di aver sofferto di un disturbo post-traumatico da stress dopo essere stato esposto a contenuti grafici traumatici sul posto di lavoro, senza che gli fosse stata fornita un’adeguata preparazione e senza essere aiutato da un valido supporto psicologico. Inoltre, Daniel è statolicenziato ingiustamentedopo aver cercato di sindacalizzare i suoi colleghi per lottare per migliori condizioni di lavoro: ha chiesto un risarcimento per i moderatori di contenuti e che la Corte impedisca a Meta eSamadi ostacolare i sindacati dei dipendenti. Inoltre, ilQuartzspiega che le tattiche di reclutamento ingannevoli diSamasono oggetto di discussione, in quanto fornisconodescrizioni diverse dei ruoli di moderatore di contenuti per trarre in inganno i candidati. Un aspetto positivo di questo caso è che il Tribunale per l’occupazione e le relazioni di lavoro del Kenya haconfermato che Meta può essere citata in giudizio in Kenya. AncheSama,che opera come azienda con uffici a Nairobi, può essere sottoposta alla giurisdizione keniota. Sarah Roberts, esperta di moderazione dei contenuti dell’Università della California, ha spiegato bene il concetto all’Associated Press:«In Paesi come il Kenya, dove è disponibile molta manodopera a basso costo, l’outsouurcing di lavori così delicati rappresenta la storia di un’industria sfruttatrice che utilizza la diseguaglianza economica globale a proprio vantaggio, facendo danni e poi non assumendosi alcuna responsabilità, perché le aziende possono dire: “Beh, noi non abbiamo mai assunto così». La verità è che questa storia non avrà mai finefinché i Paesi in via di sviluppo non darannopriorità alla creazione di meccanismi di protezione per i loro cittadini,istituendo quadri di protezione sociale e lavorativa per diminuire lo sfruttamento in nome degli investimenti stranieri o dell’eliminazione della povertà. Per esempio, ex moderatori di contenuti hanno presentato una petizione al Parlamento keniota per modificare la legge sulla salute sul lavoro, includendo i contenuti dannosi tra i rischi professionali. Oltre a questi casi, anche le grandi aziende tech stanno affrontando critiche per la moderazione dei contenuti nei loro stessi Stati. Basti pensare alla recente indagine suTikTok, che è stata citata in giudizio da un suo moderatore di contenuti in California. Dobbiamo quindi dare la colpa a tutte le grandi aziende tech? The human cost of ChatGPT: alleged exploitation of kenyan workers The human experience with theinternethas been double-edged. On the one hand, it enhances globalisation and is the ultimate source of unlimited information. On the other, the internet has also increased instances of human trafficking and the spread of propaganda. Similarly, the introduction of Artificial Intelligence (AI) has caused some unforeseen challenges. AI debates dominate our everyday lives. It is truly difficult to escape the topic. Public sentiments fall into either“I support it”, “AI will take over our jobs”or simply “I am unsure of it”. AIis here to stay despite your stand on the matter. After all, we shared the same opinions during the internet’s debut. ChatGPTis currently a trending AI technology natural language processing tool developed byOpenAI— an American AI research and deployment company. Unbeknown to the public, chatGPT’s origin and creation story is more complicated than it seems — And all good things come at a hidden cost …a human cost. “That Was Torture”: less than $2 per hour payment to filter toxic ChatGPT content A2023 exposé article byTime Magazinedetails thatOpenAIusedSama(its outsourcing partner in Kenya and a San Francisco-based firm) to employ content moderators in Kenya in November 2021. According to the Time Magazine investigation,OpenAIpaidSamaan hourly rate of $12.50, but Sama paid the Kenyan content moderators an hourly rate rangingfrom $1.46 to $3.74 to “label textual descriptions of sexual abuse, hate speech and violence.”Such content was excluded to build ChatGPT’s natural language safety system algorithm. The main point here is thatOpenAIandSamaused Kenyan content moderators to create a safe and useful ChatGPT system, unlike its less popular predecessor, GPT-3, whichprovided violent, sexist and racist remarks.This job description is similar to that of Facebook’s content moderators who review and remove illegal/harmful material to prevent breaches in its community standards and terms of service. The Kenyan content moderatos now claim that they were exposed to content of child sexual abuse, bestiality, necrophilia, murder, suicide, torture, self-harm, incest and many others. One former Kenyan content moderator for Facebook illustrates his experience in APnews as “torture”, to say the least, while another forOpenAItoldGuardianthat“it destroyed me completely.” They have filed a petition in the Kenyan Parliament seeking a probe intoOpenAIandSamaforalleged exploitation and underpaymentduring their employment. Alleged Exploitation The Kenyan content moderatorsclaim they were not well informed because the contracts inadequately described the nature of the work they would do. Citizen Kenya discloses the workers want the Kenyan Parliament to examine “the outsourcing model used by big tech companies based in the United States of America (Usa) to export harmful and dangerous work to Kenyan youth.” Citizen Kenya states the workers claim they did not receive any psychological support throughout the training process,leading to the development of various severe mental illnesses. In response, anOpenAIspokesperson tellsTimes Magazinethat “one-on-one wellness and counselling services were offered,workers could opt out of any work without penalization, exposure to explicit content would have a limit and sensitive information would be handled by workers who were specifically trained to do so.” Moreover, the workers were abruptly terminated asSamacancelled all its work forOpenAIin February 2022 (8 months earlier than planned) because the work was traumatising. A two-pronged issue as the workers were left without a source of income, yet sufferedsevere mental illnesses.Samastated the reason for this is “to focus on our core competency of computer vision data annotation solutions.” Alleged Underpayment There is no universal minimum wage in Kenya.The Wages Order dictates the minimum wage standards in Kenya for various occupations on several scales. Despite this, section 48 of the Labour Institutions Act indicates that it is an offence for an employer to not pay at least the statutory minimum remuneration or provide an employee with the conditions of employment as indicated in the Wages Order. Unfortunately, there is no specific Wages Order addressing the minimum payment scale for content moderators in Kenya which is why the case is on a matter of “fairness”. For instance, Daniel Motaung’s case against Meta andSamain Kenya was highly focused on thebetter treatment and payment of Kenyan content moderators. On the allegation of underpayment,OpenAIpaid Sama an hourlyrate of $12.50 which their spokespersonstated was the overall rate for the project. The same spokesperson toldTime Magazinethat the workers would earn $1.46 and $3.74 per hour after taxes.Samaspokesperson also toldQuartzthat they pay between$210 and $323 per month, which is above the living wage. Some even earned a $70 explicit content bonus per month. You must also consider the cost of living in Kenya alongside the rising case of youthunemployment. One current content moderator atSamatells Time Magazine:“The work that we do is kind of mental torture… Whatever I am living on is hand-to-mouth. I can’t even save a cent. Sometimes I feel I want to resign. But then I ask myself:What will my baby eat?” Now,OpenAIis projected to gain $1 billion in revenue by 2024. Concluding thoughts: global economic inequity means developing countries will always be a source of cheap labour A sad and concurrent story present in developing countries is a shrouded form of “liberation” from poverty but always at the expense of something. Indeed TheGuardianreveals thatmuch of content moderation work for Silicon Valley companies is performed in East Africa, India, the Philippinesand even by refugees, specifically those living in Dadaab (Kenya) and Shatila (Lebanon). Samastates that its mission is to provide people with “dignified digital work”.They need the money right?But at what cost? From personal reflection, this narrative continuously perpetuates and even dictates the relationship between people of developing and developed States. Make no mistake in believing these sentiments are derived from thin air because unfortunately once these instances are uncovered on the news, they are quickly swept under the rug with little-to-no individuals left to speak for the true victims. Yet, this case is a classic example of“being stuck between a rock and a hard place.”Kenya is currently facing what Nation Africa coins as the“unemployment pandemic”,whereas more than half of Kenyans (1.59 million between 20 to 29 years old) have no jobs. They need to provide for themselves and their families, but there are no available jobs. There is a sense of desperation among them, hence the willingness to take on content moderator roles by foreign big tech companies. Take Kenya as an example once again. Daniel, an ex-Facebook moderator in Nairobi issuing Meta andSamaalleging he sufferedpost-traumatic stress disorderafter being exposed to graphic and traumatic content at work without prior knowledge or proper psychological support. In addition, Daniel was unfairly dismissed after trying to unionise his co-workers to fight for better conditions. He sought compensation for the content moderators and for the Court to stop Meta andSamafrom thwarting employee unions. More so, Quartz details thatSama’sdeceptive recruitment tactics are in question as they place varying job descriptions of content moderator roles to trick candidates. One positive aspect of this case is that the Employment and Labour Relations Court in Kenyaconfirmed that Meta can be sued in Kenya, and the company will not be struck out.Samaoperates as a business with offices in Nairobi and can be subjected to the Kenyan judicial process. Sarah Roberts, a content moderation expert at the University of California puts it well as she tells theAssociated Press:“In countries like Kenya, where there is plenty of cheap labour available, the outsourcing of such sensitive work is “a story of an exploitative industry predicated on using global economic inequality to its advantage, doing harm and then taking no responsibility because the firms can be like, Well, we never employed so-and-so, that was, you know, the third party.” The truth is that this narrative is regrettably unending as long as developing States do not prioritise the creation of protection mechanisms for their citizensby establishing social and labour protection frameworks to decrease exploitation in the name of foreign investment or poverty eradication. For instance, former content moderators have petitioned the Kenyan Parliament to amend the Occupational Health Act to include harmful content as an occupational hazard. Besides these cases, big tech companies are additionally facing criticism for content moderation in their own States. Take the recent probe into TikTok after being sued by their content moderator in California. Should we blame big tech altogether?

Redazione

Share
Published by
Redazione

Recent Posts

La Danimarca si scusa per gli abusi sulle persone con disabilità

  «A nome dello Stato danese, a nome del Governo: mi dispiace». Con queste parole…

5 giorni ago

Natalità: -1,1% nei primi 4 mesi del 2023

  A poco più di un mese dagliStati Generali della Natalità, lasituazione demografica italiananon sembra…

5 giorni ago

Biodiversità: Italia è quinta in Europa per numero di ricerche scientifiche

  Dall’Accordo all’azione: ricostruire la biodiversità”. È questo il tema scelto quest’anno per la Giornata…

5 giorni ago

Ogni 2 minuti una donna muore per gravidanza o parto

  Una donna muore ogni due minuti per complicanzelegate al parto e alla gravidanza. Lo…

5 giorni ago

Bologna: l’arte di Jago, Banksy e TvBoy approda in città

  Dall’11 novembre al 7 maggio 2023,Palazzo Albergati a Bolognaospita la mostraJago, Banksy, TvBoy e…

5 giorni ago

Romano Prodi e i “ribelli” che chiedono un Patto verde Ue

  La semplice diversificazione delle importazioni dicombustibili fossiliper liberarsi dalla dipendenza russa - che garantisce…

5 giorni ago