(HI! ESTUDIO)
Diritti

Il costo umano di ChatGPT: l’AI sfrutta i lavoratori?

Il Time racconta come i moderatori di contenuti kenioti siano stati pagati tra gli 1,4 e i 3,7 dollari l’ora per “catalogare le descrizioni di abusi sessuali, incitamenti all’odio e violenza”
di Maria Angela Maina
Tempo di lettura 15 min lettura
4 settembre 2023 Aggiornato alle 18:00

L’esperienza umana con internet è sempre stata a doppio senso. Da un lato, la rete ha favorito la globalizzazione, diventando una fonte illimitata di informazioni; dall’altro, ha portato al traffico di esseri umani e alla diffusione di propagande d’odio.

Allo stesso modo, l’introduzione dell’intelligenza artificiale ha comportato alcune sfide impreviste. I dibattiti sull’AI sono al centro della nostra vita quotidiana. È quasi impossibile sfuggire all’argomento. L’opinione pubblica si divide tra chi si dichiara favorevole e chi sostiene che ci toglierà il lavoro; altri non hanno ancora preso una posizione precisa, restando comunque diffidenti.

Tuttavia, nonostante le nostre opinioni a riguardo, l’intelligenza artificiale non è un fenomeno passeggero, ma è qui per restare. Dopo tutto, questi stessi discorsi sono stati fatti all’epoca dell’introduzione di internet.

ChatGPT è uno strumento di elaborazione del linguaggio naturale della tecnologia AI di tendenza, sviluppato da OpenAI, una società americana di ricerca e diffusione dell’intelligenza artificiale. All’insaputa del pubblico, la sua origine e la sua storia sono più complicate di quanto si possa pensare, ma come tutte le cose belle, anche questa ha un costo nascosto… il costo umano.

«Era una tortura»: pagati meno di 2 dollari l’ora per filtrare i contenuti tossici di ChatGPT

Un articolo di denuncia del 2023 del Time racconta che OpenAI ha utilizzato Sama (il suo partner di outsourcing in Kenya, una società con sede a San Francisco) per assumere nel mese di novembre 2021 moderatori di contenuti. Secondo l’inchiesta, OpenAI forniva a Sama un compenso di 12,50 dollari l’ora.

Tuttavia, Sama pagava ai moderatori di contenuti kenioti una tariffa oraria che andava da 1,46 a 3,74 dollari per “catalogare le descrizioni testuali di abusi sessuali e incitamenti all’odio e violenza”. Questi contenuti sono stati esclusi per costruire l’algoritmo del sistema di sicurezza in linguaggio naturale di ChatGPT.

La questione principale è che OpenAI e Sama si sono servite di moderatori di contenuti kenioti per creare un sistema ChatGPT che fosse sicuro e utile, a differenza del suo predecessore, meno popolare, GPT-3, che spesso utilizzava commenti violenti, sessisti e razzisti. Questa mansione è simile a quella dei moderatori di contenuti di Facebook, che esaminano e rimuovono materiale illegale o nocivo per prevenire le violazioni degli standard della comunità e i termini di servizio.

I moderatori kenioti affermano di essere stati esposti a contenuti di abusi sessuali su minori, bestialità, necrofilia, omicidio, suicidio, tortura, autolesionismo, incesto e molto altro. Un ex moderatore di contenuti per Facebook ha descritto la sua esperienza come una «tortura», per non dire altro, mentre un altro moderatore per OpenAI ha riferito al Guardian che questa mansione lo ha «distrutto completamente».

È stata presentata una petizione al Parlamento keniota per chiedere un’indagine su OpenAI e Sama per presunto sfruttamento umano e salariale dei propri dipendenti durante il periodo del loro impiego.

Il presunto sfruttamento umano

I moderatori di contenuti kenioti sostengono di non essere stati informati a dovere; infatti, secondo questi ultimi, i contratti da loro sottoscritti non descrivevano in modo sufficientemente chiaro la natura del lavoro che avrebbero dovuto svolgere. Citizen Kenya ha rivelato che i lavoratori chiedono che il Parlamento keniota esamini “il modello di outsourcing utilizzato dalle grandi aziende Tech con sede negli Stati uniti d’America (Usa) per esportare i lavori dannosi e pericolosi in modo che siano i giovani kenioti a occuparsene”.

Citizen Kenya afferma che i dipendenti sostengono di non aver ricevuto alcun supporto psicologico durante il processo di formazione, il che ha portato allo sviluppo di diversi disturbi mentali di grave entità. In risposta, un portavoce di OpenAI ha dichiarato a Time che «sono stati offerti servizi di assistenza psicologica e di consulenza individuali, i lavoratori potevano rinunciare a qualsiasi incarico senza essere penalizzati, l’esposizione a contenuti espliciti avrebbe avuto un limite e le informazioni sensibili sarebbero state gestite da lavoratori appositamente preparati a farlo».

Inoltre, i kenioti sono stati bruscamente licenziati quando Sama ha cancellato tutto il lavoro per OpenAI nel febbraio 2022 (8 mesi prima del previsto), ritenendo che il lavoro fosse eccessivamente traumatizzante. Un problema 2 volte più grave, dal momento che i lavoratori sono rimasti senza una fonte di reddito e affetti da gravi disturbi mentali. Sama ha dichiarato che il motivo dei licenziamenti risiede nella volontà della società di “concentrarsi sulla nostra competenza principale, ovvero le soluzioni di annotazione dei dati di computer vision”.

Il presunto sfruttamento salariale

In Kenya non esiste un salario minimo universale. La legge sui salari stabilisce, su diverse scale, gli standard minimi nel Paese per le varie tipologie di occupazione. Inoltre, la sezione 48 della Legge sulle Istituzioni del lavoro indica che è un reato per un datore di lavoro non pagare almeno la retribuzione minima prevista dalla legge o non fornire al dipendente le condizioni di lavoro indicate nella legge sui salari.

Nonostante ciò, in Kenya non esiste una normativa sui salari specifica che disciplini i livelli minimi per i moderatori di contenuti, ragion per cui il caso di specie riguarda proprio una questione di “equità”. Per esempio, la causa di Daniel Motaung contro Meta e Sama in Kenya era incentrata proprio sul miglioramento delle condizioni di salute ed economiche dei moderatori di contenuti kenioti.

Per quanto riguarda l’accusa di sfruttamento salariale, OpenAI ha pagato a Sama una tariffa oraria di 12,50 dollari, che il portavoce di Sama ha dichiarato essere la tariffa complessiva per il progetto. Lo stesso portavoce ha dichiarato a Time che i lavoratori avrebbero guadagnato da 1,46 a 3,74 dollari l’ora al netto delle tasse. Quest’ultimo ha anche dichiarato al Quartz che gli stipendi si aggiravano tra i 210 e i 323 dollari, importi che sono superiori al salario minimo di sussistenza. Alcuni dipendenti avrebbero, inoltre, guadagnato anche un bonus di 70 dollari al mese per esaminare determinati contenuti espliciti.

Bisogna anche considerare il costo della vita in Kenya e il crescente tasso di disoccupazione giovanile. Uno dei moderatori in carica di Sama racconta a Time Magazine: «Il lavoro che svolgiamo è una specie di tortura mentale… Viviamo alla giornata. Non riesco a risparmiare nemmeno un centesimo. A volte penso di volermi dimettere. Ma poi mi chiedo: cosa mangerà il mio bambino?».

Ad oggi si prevede che OpenAI guadagnerà 1 miliardo di dollari di fatturato entro il 2024

L’iniquità economica globale nei Paesi in via di sviluppo sarà sempre fonte di manodopera a basso costo

Una storia triste che spesso si verifica nei Paesi in via di sviluppo, una forma di “liberazione” dalla povertà, ma sempre a scapito di qualcosa. Il Guardian rivela infatti che gran parte del lavoro di moderazione dei contenuti per le aziende della Silicon Valley viene svolto in Africa orientale, in India, nelle Filippine e persino dai rifugiati, in particolare quelli che vivono a Dadaab (Kenya) e a Shatila (Libano).

Sama afferma che la sua missione è quella di fornire alle persone un “lavoro digitale dignitoso”. Hanno bisogno di soldi, giusto? Ma a quale prezzo?

Da una riflessione personale, questa storia si ripete ancora e addirittura detta le relazioni tra i popoli degli Stati in via di sviluppo e quelli sviluppati. Non si creda che queste riflessioni derivino dal nulla, perché, purtroppo, una volta che queste notizie balzano agli onori di cronaca, vengono rapidamente spazzate sotto al tappeto, senza che nessuno parli a nome delle vere vittime.

Eppure, questo è un classico esempio di “essere bloccati tra l’incudine e il martello”. Il Kenya sta affrontando quella che Nation Africa definisce la “pandemia della disoccupazione”: più della metà dei kenioti (1,59 milioni tra i 20 e i 29 anni) non ha un lavoro; hanno bisogno di provvedere a loro stessi e alle loro famiglie, ma non ci sono posti di lavoro disponibili. C’è un diffuso senso di disperazione. Proprio da qui deriva la disponibilità delle aziende Tech straniere ad assumere personale che ricopra il ruolo di moderatore di contenuti.

Prendiamo ancora una volta come esempio il Kenya. Daniel, ex moderatore di Facebook a Nairobi, ha fatto causa a Meta e Sama sostenendo di aver sofferto di un disturbo post-traumatico da stress dopo essere stato esposto a contenuti grafici traumatici sul posto di lavoro, senza che gli fosse stata fornita un’adeguata preparazione e senza essere aiutato da un valido supporto psicologico.

Inoltre, Daniel è stato licenziato ingiustamente dopo aver cercato di sindacalizzare i suoi colleghi per lottare per migliori condizioni di lavoro: ha chiesto un risarcimento per i moderatori di contenuti e che la Corte impedisca a Meta e Sama di ostacolare i sindacati dei dipendenti. Inoltre, il Quartz spiega che le tattiche di reclutamento ingannevoli di Sama sono oggetto di discussione, in quanto forniscono descrizioni diverse dei ruoli di moderatore di contenuti per trarre in inganno i candidati.

Un aspetto positivo di questo caso è che il Tribunale per l’occupazione e le relazioni di lavoro del Kenya ha confermato che Meta può essere citata in giudizio in Kenya. Anche Sama, che opera come azienda con uffici a Nairobi, può essere sottoposta alla giurisdizione keniota.

Sarah Roberts, esperta di moderazione dei contenuti dell’Università della California, ha spiegato bene il concetto all’Associated Press: «In Paesi come il Kenya, dove è disponibile molta manodopera a basso costo, l’outsouurcing di lavori così delicati rappresenta la storia di un’industria sfruttatrice che utilizza la diseguaglianza economica globale a proprio vantaggio, facendo danni e poi non assumendosi alcuna responsabilità, perché le aziende possono dire: “Beh, noi non abbiamo mai assunto così».

La verità è che questa storia non avrà mai fine finché i Paesi in via di sviluppo non daranno priorità alla creazione di meccanismi di protezione per i loro cittadini, istituendo quadri di protezione sociale e lavorativa per diminuire lo sfruttamento in nome degli investimenti stranieri o dell’eliminazione della povertà.

Per esempio, ex moderatori di contenuti hanno presentato una petizione al Parlamento keniota per modificare la legge sulla salute sul lavoro, includendo i contenuti dannosi tra i rischi professionali. Oltre a questi casi, anche le grandi aziende tech stanno affrontando critiche per la moderazione dei contenuti nei loro stessi Stati. Basti pensare alla recente indagine su TikTok, che è stata citata in giudizio da un suo moderatore di contenuti in California.

Dobbiamo quindi dare la colpa a tutte le grandi aziende tech?

The human cost of ChatGPT: alleged exploitation of kenyan workers

The human experience with the internet has been double-edged. On the one hand, it enhances globalisation and is the ultimate source of unlimited information. On the other, the internet has also increased instances of human trafficking and the spread of propaganda.

Similarly, the introduction of Artificial Intelligence (AI) has caused some unforeseen challenges. AI debates dominate our everyday lives. It is truly difficult to escape the topic. Public sentiments fall into either “I support it”, “AI will take over our jobs” or simply “I am unsure of it”.

AI is here to stay despite your stand on the matter. After all, we shared the same opinions during the internet’s debut.

ChatGPT is currently a trending AI technology natural language processing tool developed by OpenAI — an American AI research and deployment company. Unbeknown to the public, chatGPT’s origin and creation story is more complicated than it seems — And all good things come at a hidden cost … a human cost.

“That Was Torture”: less than $2 per hour payment to filter toxic ChatGPT content

A 2023 exposé article by Time Magazine details that OpenAI used Sama (its outsourcing partner in Kenya and a San Francisco-based firm) to employ content moderators in Kenya in November 2021. According to the Time Magazine investigation, OpenAI paid Sama an hourly rate of $12.50, but Sama paid the Kenyan content moderators an hourly rate ranging from $1.46 to $3.74 to “label textual descriptions of sexual abuse, hate speech and violence.” Such content was excluded to build ChatGPT’s natural language safety system algorithm.

The main point here is that OpenAI and Sama used Kenyan content moderators to create a safe and useful ChatGPT system, unlike its less popular predecessor, GPT-3, which provided violent, sexist and racist remarks. This job description is similar to that of Facebook’s content moderators who review and remove illegal/harmful material to prevent breaches in its community standards and terms of service.

The Kenyan content moderatos now claim that they were exposed to content of child sexual abuse, bestiality, necrophilia, murder, suicide, torture, self-harm, incest and many others. One former Kenyan content moderator for Facebook illustrates his experience in AP news as “torture”, to say the least, while another for OpenAI told Guardian that “it destroyed me completely.”

They have filed a petition in the Kenyan Parliament seeking a probe into OpenAI and Sama for alleged exploitation and underpayment during their employment.

Alleged Exploitation

The Kenyan content moderators claim they were not well informed because the contracts inadequately described the nature of the work they would do. Citizen Kenya discloses the workers want the Kenyan Parliament to examine “the outsourcing model used by big tech companies based in the United States of America (Usa) to export harmful and dangerous work to Kenyan youth.”

Citizen Kenya states the workers claim they did not receive any psychological support throughout the training process, leading to the development of various severe mental illnesses. In response, an OpenAI spokesperson tells Times Magazine that “one-on-one wellness and counselling services were offered, workers could opt out of any work without penalization, exposure to explicit content would have a limit and sensitive information would be handled by workers who were specifically trained to do so.”

Moreover, the workers were abruptly terminated as Sama cancelled all its work for OpenAI in February 2022 (8 months earlier than planned) because the work was traumatising. A two-pronged issue as the workers were left without a source of income, yet suffered severe mental illnesses. Sama stated the reason for this is “to focus on our core competency of computer vision data annotation solutions.”

Alleged Underpayment

There is no universal minimum wage in Kenya. The Wages Order dictates the minimum wage standards in Kenya for various occupations on several scales. Despite this, section 48 of the Labour Institutions Act indicates that it is an offence for an employer to not pay at least the statutory minimum remuneration or provide an employee with the conditions of employment as indicated in the Wages Order. Unfortunately, there is no specific Wages Order addressing the minimum payment scale for content moderators in Kenya which is why the case is on a matter of “fairness”. For instance, Daniel Motaung’s case against Meta and Sama in Kenya was highly focused on the better treatment and payment of Kenyan content moderators.

On the allegation of underpayment, OpenAI paid Sama an hourly rate of $12.50 which their spokesperson stated was the overall rate for the project. The same spokesperson told Time Magazine that the workers would earn $1.46 and $3.74 per hour after taxes. Sama spokesperson also told Quartz that they pay between $210 and $323 per month, which is above the living wage. Some even earned a $70 explicit content bonus per month.

You must also consider the cost of living in Kenya alongside the rising case of youth unemployment. One current content moderator at Sama tells Time Magazine: “The work that we do is kind of mental torture… Whatever I am living on is hand-to-mouth. I can’t even save a cent. Sometimes I feel I want to resign. But then I ask myself: What will my baby eat?”

Now, OpenAI is projected to gain $1 billion in revenue by 2024.

Concluding thoughts: global economic inequity means developing countries will always be a source of cheap labour

A sad and concurrent story present in developing countries is a shrouded form of “liberation” from poverty but always at the expense of something. Indeed The Guardian reveals that much of content moderation work for Silicon Valley companies is performed in East Africa, India, the Philippines and even by refugees, specifically those living in Dadaab (Kenya) and Shatila (Lebanon).

Sama states that its mission is to provide people with “dignified digital work”. They need the money right? But at what cost?

From personal reflection, this narrative continuously perpetuates and even dictates the relationship between people of developing and developed States. Make no mistake in believing these sentiments are derived from thin air because unfortunately once these instances are uncovered on the news, they are quickly swept under the rug with little-to-no individuals left to speak for the true victims.

Yet, this case is a classic example of “being stuck between a rock and a hard place.” Kenya is currently facing what Nation Africa coins as the “unemployment pandemic”, whereas more than half of Kenyans (1.59 million between 20 to 29 years old) have no jobs. They need to provide for themselves and their families, but there are no available jobs. There is a sense of desperation among them, hence the willingness to take on content moderator roles by foreign big tech companies.

Take Kenya as an example once again. Daniel, an ex-Facebook moderator in Nairobi is suing Meta and Sama alleging he suffered post-traumatic stress disorder after being exposed to graphic and traumatic content at work without prior knowledge or proper psychological support. In addition, Daniel was unfairly dismissed after trying to unionise his co-workers to fight for better conditions.

He sought compensation for the content moderators and for the Court to stop Meta and Sama from thwarting employee unions. More so, Quartz details that Sama’s deceptive recruitment tactics are in question as they place varying job descriptions of content moderator roles to trick candidates. One positive aspect of this case is that the Employment and Labour Relations Court in Kenya confirmed that Meta can be sued in Kenya, and the company will not be struck out. Sama operates as a business with offices in Nairobi and can be subjected to the Kenyan judicial process.

Sarah Roberts, a content moderation expert at the University of California puts it well as she tells the Associated Press: “In countries like Kenya, where there is plenty of cheap labour available, the outsourcing of such sensitive work is “a story of an exploitative industry predicated on using global economic inequality to its advantage, doing harm and then taking no responsibility because the firms can be like, Well, we never employed so-and-so, that was, you know, the third party.”

The truth is that this narrative is regrettably unending as long as developing States do not prioritise the creation of protection mechanisms for their citizens by establishing social and labour protection frameworks to decrease exploitation in the name of foreign investment or poverty eradication. For instance, former content moderators have petitioned the Kenyan Parliament to amend the Occupational Health Act to include harmful content as an occupational hazard. Besides these cases, big tech companies are additionally facing criticism for content moderation in their own States. Take the recent probe into TikTok after being sued by their content moderator in California.

Should we blame big tech altogether?

Leggi anche
Intelligenza artificiale
di Antonio Pellegrino 3 min lettura