De Keniaanse labellers — het verborgen werk waar elke chatbot op rust

Tussen november 2021 en maart 2022 hadden dertien mensen in Nairobi een baan die hun leven veranderde. Ze lazen acht tot negen uur per dag teksten die ChatGPT later zou moeten vermijden. Voor hun arbeid — die essentieel was voor de commerciële veiligheid van AI — werden ze betaald in dollars per uur die nauwelijks in twee cijfers pasten.

Moderne kantoorgebouwen in Nairobi — referentie naar de Keniaanse data-arbeid

In november 2021 tekende Sama, een outsourcing-bedrijf met kantoren in San Francisco en Nairobi, een contract met OpenAI. Het werk leek op het eerste gezicht eenvoudig: grote hoeveelheden tekst lezen en categoriseren. De opdracht was specifiek. Sommige categorieën waren vrij neutraal — politieke content, religieuze content, gewelddadige content in verschillende gradaties. Anderen waren extreem. Seksueel geweld, kindermisbruik, details over zelfmoord, beschrijvingen van tortuur.

In Nairobi werden ongeveer 35 werkers aangenomen om dit werk te doen. Ze werkten in drie teams. Hun loon varieerde van $1,32 tot $2 per uur, afhankelijk van hun prestaties en dienstjaren. De werktijden waren 8-9 uur per dag, vijf dagen per week. Het was volgens Keniaanse standaarden acceptabel werk. Volgens alle andere standaarden was het lage beloning voor werk met enorme psychologische kosten.

In januari 2023 publiceerde Time Magazine een onderzoeksartikel over dit werk. De titel: "OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic." Het was geen exposé in de strikte zin — geen illegale praktijken, geen verborgen skandalen. Het beschreef een arbeidsstructuur die legaal en zelfs standaard was in de content-moderatie-industrie. Dat was precies wat het schokkend maakte.

Waarom dit werk nodig was

Om te begrijpen waarom OpenAI dit werk uitbesteedde, moet je iets weten over hoe AI-modellen worden veiliggemaakt. Een taalmodel dat getraind is op ongefilterd internet zegt regelmatig dingen die in ChatGPT niet horen thuis. Uitgebreide instructies voor zelfmoord. Seksuele content met minderjarigen. Haat spraak. Niet omdat er iets mis is met het model, maar omdat die content in de trainingsdata stond en het model imiteert wat het heeft gezien.

Om ChatGPT geschikt te maken voor miljoenen consumenten, moest OpenAI een filter bouwen dat dit soort output kon detecteren en blokkeren. Dat filter moest getraind worden. En voor training heb je voorbeelden nodig — gelabelde voorbeelden, met duidelijke categorieën.

Mensen zouden moeten lezen welke teksten in welke categorie vielen. Dat waren de Keniaanse werkers. Ze lazen de donkere uithoeken van het internet — content verzameld door OpenAI, soms zelf gegenereerd door eerdere modelversies als voorbeelden — en markeerden ze zodat het uiteindelijke filter wist wat het moest blokkeren.

Zonder dit werk zou ChatGPT niet veilig kunnen worden uitgebracht. De consumenten zouden een AI krijgen die soms intense schokkende content produceerde. Het is zeer aannemelijk dat het product nooit zou zijn gelanceerd.

Wat ze moesten lezen

De details die uit het Time-artikel en latere rapportages naar buiten kwamen, waren zwaar. Werkers beschreven teksten over kindermisbruik die zo gedetailleerd waren dat ze achteraf niet konden slapen. Beschrijvingen van seksueel geweld die ze moesten categoriseren op specifieke niveaus van expliciteit. Verhalen over foltering die ze moesten markeren volgens nauwkeurige specificaties.

Eén werker vertelde Time: "That was torture. You will read a number of statements like that all through the week. By the time it gets to Friday, you are disturbed from thinking through that picture."

Sama had beperkte mentale gezondheidsondersteuning. Werkers konden naar "wellness counselors" gaan, maar die waren niet gespecialiseerd in trauma. De ondersteuning was ook niet verplicht, en sommige managers zagen het als productiviteitsverlies om werkers naar sessies te sturen. Meerdere werkers rapporteren dat ze het zelf moesten regelen.

Uiteindelijk beëindigde Sama het contract in februari 2022, acht maanden voor het afliep. De officiële reden: veranderingen in het werk. De feitelijke reden volgens Sama-insiders: de psychische belasting was niet langer houdbaar, en de reputatierisico's voor Sama werden ernstig.

De onomkeerbaarheid

Het werk dat deze Keniaanse werkers hebben gedaan, is onomkeerbaar. De gedachten, beelden, scenario's die ze hebben gelezen, kunnen ze niet uitwissen. Sommigen hebben publiekelijk gesproken over de blijvende impact — verstoorde slaap, moeite met intimiteit, paranoïde gedachten over kinderen in hun omgeving, veranderde kijk op mensheid. Dit zijn echte, meetbare effecten, documentatiewaardig in verschillende psychiatrische literatuur.

Terwijl de werkers permanent veranderd zijn door wat ze hebben gelezen, is ChatGPT beschikbaar voor miljoenen gebruikers die nooit iets van dit werk zullen weten. Een vraag aan ChatGPT die geen schokkende content oplevert — dat is het resultaat van het filter dat door deze gelabelde data is getraind. De gebruikers genieten van de afwezigheid van iets. De werkers dragen de aanwezigheid van dat zelfde iets met zich mee.

De economische logica

Waarom bestaat deze configuratie? Omdat ze goedkoop is.

Een content-moderator in de Verenigde Staten zou minstens $15-20 per uur verdienen, met voltijdse benefits, verplichte mentale gezondheidsondersteuning, en juridische bescherming. Een vergelijkbare werker in Kenia via Sama verdient $1,32-2 per uur. Voor een bedrijf dat miljarden aan data-labeling uitgeeft, is het verschil significant.

Dat is geen uniek fenomeen. Facebook heeft vergelijkbare outsourcing gedaan naar Filipijnen, Kenia en andere landen. YouTube heeft moderators in India. TikTok heeft grote operaties in Oost-Europa. De hele content-moderatie-industrie — waarvan AI-labeling een groeiend deel is — bouwt op economische verschillen tussen rijk en arm.

Voor de werkers is de baan vaak aantrekkelijk vergeleken met lokale alternatieven. $2 per uur is meer dan veel andere beschikbare banen in Nairobi. Maar de kosten — psychologisch, sociaal, op lange termijn — worden niet in het uurloon gereflecteerd.

Het juridische nasleep

In 2023 hebben meerdere ex-Sama-werkers juridische actie ondernomen. In Kenia is een klacht ingediend tegen Sama en OpenAI wegens mentale gezondheidsschade en onvoldoende bescherming. De zaak loopt nog. Uit principe: hoewel Sama het directe werkgever was, stellen de klagers dat OpenAI medeverantwoordelijk is gegeven zijn rol als cliënt die het werk specificeerde.

Parallel is er een bredere klacht ingediend namens 184 werkers van Sama (die ook Facebook-moderatie deden) tegen zowel Sama als Meta. Die zaak heeft een Keniaanse rechtbank bereikt met een aanvankelijke uitspraak dat de rechtbank jurisdictie heeft, iets dat Meta sterk betwistte.

Deze processen creëren precedenten. Als ze slagen, kunnen ze de economie van content-moderatie en AI-labeling veranderen. Als ze falen, consolideert het bestaande model zich.

Wat dit over AI zegt

Er is een verleiding om AI te beschrijven als een schone technologie — bits en bytes, rekenkracht, elegante wiskunde. De werkelijkheid is veel ruwer. Achter elke chatbot staat een industrie van menselijke arbeid die ongelijk verdeeld is over de wereld. Consumenten ervaren het eindproduct. Arbeiders in het globale zuiden dragen de kosten van de productie.

Dat patroon is niet uniek voor AI — het geldt voor veel technologie, zoals fabriekswerk voor smartphones of textielarbeid voor fast fashion. Maar in AI heeft het een specifiek ongemakkelijk karakter. De arbeid gaat niet over fysieke productie maar over cognitieve en emotionele verwerking. De kosten zijn niet slechts lichamelijk maar mentaal.

Wanneer we nadenken over de ethiek van AI, zijn de vragen vaak abstract — over alignment, over bias, over economische ontwrichting. Die zijn belangrijk. Maar er is ook een concretere ethische vraag die vaak onbesproken blijft: wie betaalt, in tastbare zin, voor de veiligheid en bruikbaarheid van de AI's die we gebruiken? En klopt die verdeling?

Wat er verandert

De industrie verandert wel, traag. Sommige AI-bedrijven (Anthropic, bijvoorbeeld) hebben strengere standaarden gesteld voor data-labeling, inclusief verplichte mentale gezondheidsondersteuning en hogere lonen. Sommige contractors (zoals Scale AI) adverteren met betere omstandigheden dan Sama had. Er zijn ook organisaties die pleiten voor industriestandaarden.

Maar de economische realiteit is dat het goedkoopste werk altijd aantrekkelijk zal zijn voor bedrijven die in concurrentie staan. En het werk is nog steeds grotendeels onzichtbaar. Consumenten die een ChatGPT-vraag stellen, denken zelden aan de weg die de veiligheidsfilters hebben afgelegd.

Dat is waarom het Time-artikel zo belangrijk was. Het maakte iets zichtbaar dat het liefst onzichtbaar bleef. Dertien Keniaanse werkers kregen een stem in het publieke debat over AI. Hun ervaringen zullen niet alle systemische problemen oplossen, maar ze zetten iets op de agenda dat anders onder de radar was gebleven.

De onderliggende vraag

Misschien is de diepste vraag die deze verhalen oproepen: welke technologie zouden we bouwen als we eerlijk inzagen wat het kost om het te bouwen? Als alle kosten — menselijke, milieu, structureel — in de prijs zouden zitten, zou de productmix er anders uitzien.

Dat is een filosofische vraag zonder eenvoudig antwoord. Maar elke keer dat je een ChatGPT-gesprek voert, elke keer dat een schokkende vraag beleefd wordt afgewezen, is er iemand in Nairobi die dat antwoord mogelijk heeft gemaakt. Niet metaforisch. Letterlijk. Door maanden teksten te lezen die je zelf nooit zou willen zien, voor minder dan twee dollar per uur.

Dat we ze zelden noemen, zegt iets over de manier waarop deze industrie zichzelf voorstelt aan de wereld. Het zegt misschien ook iets over wat wij bereid zijn niet te weten.

Veelgestelde vragen

Waarom uitbesteden naar Kenia?+

Engels is een officiële taal, lonen zijn veel lager dan in westerse landen, en er is een groeiende industrie voor content-moderatie (mede vanwege Facebook's eerdere contracten). Kenia is geen uitzondering — Filipijnen, Venezuela en andere landen leveren ook dit soort werk.

Wist OpenAI wat de arbeiders moesten lezen?+

Ja. Het was expliciet onderdeel van de specificatie: teksten met seksueel geweld, kindermisbruik, zelfmoord en andere schokkende categorieën moesten worden gelabeld om ChatGPT te leren ze te vermijden.

Wat waren de psychische effecten?+

Arbeiders rapporteerden nachtmerries, ongewenste intrusieve gedachten, verstoorde relaties, en in sommige gevallen langdurige trauma. Sama bood beperkte mentale gezondheidsondersteuning. Meerdere werkers hebben aangegeven dat die ondersteuning niet voldeed.

Gebeurt dit nog steeds?+

Ja, in andere vormen bij andere bedrijven. De industrie van data-labeling en content-moderatie is enorm en gaat grotendeels via outsourcing naar het globale zuiden. Er zijn meer pogingen tot transparantie en betere arbeidsomstandigheden, maar de fundamentele economische structuur blijft.

Deel dit artikel
LinkedIn ↗ X / Twitter ↗ Mail ↗
Laten we praten

Vragen die je eigen project betreffen?

Elke call begint met luisteren. Vertel waar je staat, dan denken we samen verder.

Binnen 24u een reactie. Altijd persoonlijk.