Fei-Fei Li — de onderschatte moeder van moderne AI
De AI-goden die we kennen zijn mannen. Hinton, LeCun, Bengio, Altman, Musk. Maar één van de meest fundamentele bijdragen aan moderne AI kwam van een Chinees-Amerikaanse hoogleraar wiens naam minder mensen kennen. Zonder haar geduldige obsessie met een simpel idee, was er geen deep learning-revolutie geweest.
In 2006 was Fei-Fei Li een jonge assistent-professor aan Princeton. Geboren in China, naar de VS verhuisd als tiener, was ze tot hoogleraar gekomen door doorzettingsvermogen en brilliantie. Ze bestudeerde computervision — hoe computers afbeeldingen kunnen begrijpen.
Het veld was in een frustrerende plek. Onderzoekers hadden algoritmen die op kleine datasets werkten, maar zodra je ze op iets realistischers toepaste, faalden ze. De algoritmen waren niet het probleem — de data was het probleem. Niet genoeg gelabelde beelden om modellen echt goed te leren.
Li had een eenvoudige, zeer ambitieuze gedachte. Wat als we gewoon een gigantische dataset bouwen? Niet duizenden, niet tienduizenden, maar miljoenen gelabelde beelden. Breed, divers, algemeen.
Het idee werd in academische kringen met scepsis ontvangen. Grants voor "dataset-bouwen" waren zeldzaam — grote ideeën voor nieuwe algoritmen waren de norm. Data-werk werd gezien als ondergeschikt, routinematig, niet echt wetenschappelijk.
Li deed het toch. Drie jaar, een team van onderzoekers, duizenden Amazon Mechanical Turk-werkers om beelden te labelen. Het resultaat was ImageNet.
Wat ImageNet was
ImageNet is een dataset van ongeveer 14 miljoen afbeeldingen, georganiseerd in meer dan 20.000 categorieën volgens de WordNet-ontologie. Elke afbeelding is gelabeld door mensen — duizenden individuele beoordelaars die beslisten wat er op elke foto stond.
Het klinkt simpel. Het was het niet. De logistieke uitdaging van miljoenen beelden verzamelen, consistent labelen, kwaliteit controleren, en beschikbaar maken voor onderzoekers — dat was werk op een schaal die in academische informatica toen ongewoon was.
Het kostte miljoenen dollars. Het vereiste coördinatie met Amazon Mechanical Turk op een schaal die niemand eerder had gedaan in AI. Het vroeg geduld om drie jaar lang vast te houden aan een visie waarvan de waarde onduidelijk was.
Li en haar team publiceerden ImageNet in 2009. De reactie was aanvankelijk lauw. Veel onderzoekers zagen er niet meteen de waarde van in.
De wedstrijd
In 2010 lanceerde Li de ImageNet Large Scale Visual Recognition Challenge (ILSVRC) — een jaarlijkse wedstrijd waarin onderzoekers hun algoritmen tegen elkaar lieten strijden op de ImageNet-dataset.
De eerste paar jaar waren de verbeteringen marginaal. Traditionele computervision-algoritmen (gebaseerd op handgemaakte features) scoorden rond de 25-30% foutpercentage op de top-5 classification task. Elke jaar een beetje beter.
In 2012 gebeurde iets anders. Geoffrey Hinton's team in Toronto (met Alex Krizhevsky en Ilya Sutskever) gebruikten een diep neuraal netwerk op GPU's, getraind op ImageNet. Hun inzending — later bekend als AlexNet — scoorde een foutpercentage van 15,3%. Een sprong van 10 percentpunten ten opzichte van de beste traditionele methode.
Het was, zoals we nu weten, het begin van de deep learning-revolutie. Maar cruciaal: die revolutie was niet mogelijk geweest zonder ImageNet. AlexNet's architectuur was briljant, maar haar kracht kwam uit het feit dat ze kon trainen op 1,2 miljoen gelabelde voorbeelden. Zonder die data was deep learning een fascinerende theorie zonder overtuigende demonstratie.
De krediet ging naar Hinton, Krizhevsky, Sutskever. Zij hadden de architectuur. Maar Li had de data. Zonder de data, geen architectuur. Haar naam staat minder prominent in geschiedenisboeken dan die van hen, maar haar bijdrage was structureel.
Haar carrière daarna
Na ImageNet kreeg Li steeds meer erkenning. Ze werd hoogleraar bij Stanford. Ze leidde het Stanford Artificial Intelligence Lab (SAIL). Ze publiceerde invloedrijke papers over computervision en AI-ethiek.
In 2017 verliet ze academisch werk tijdelijk om chief scientist voor AI bij Google Cloud te worden. Dat was een prestigieuze industriële positie. Haar rol was minder publiciteitsgericht dan die van haar collega's bij OpenAI of DeepMind. Ze werkte aan enterprise-AI-producten, niet aan consumenten-chatbots.
In 2021 keerde ze terug naar Stanford. Ze is directeur geworden van het Stanford Institute for Human-Centered AI (HAI) — een interdisciplinair programma dat AI bestudeert vanuit ethisch, maatschappelijk, en technisch perspectief.
In 2024 heeft ze World Labs opgericht — een startup die zich richt op "spatial intelligence", AI-systemen die de fysieke wereld driedimensionaal begrijpen. Dit is een gebied dat onderontwikkeld is vergeleken met taal-AI. Li ziet het als het volgende grote onderzoeksfront.
Waarom ze minder bekend is
Als Li's bijdrage zo fundamenteel was, waarom is ze minder bekend dan Hinton, LeCun, of Altman?
Architecturen krijgen aandacht, data niet. In AI-verhalen gaat het aandacht vaak naar specifieke modellen of algoritmen. Data-werk — dat fundamenteel is maar "gewoon" werk lijkt — krijgt minder focus. Dat is een structureel probleem in hoe we AI-geschiedenis vertellen.
Ze heeft geen grote consumer-product-doorbraak geleid. Altman heeft ChatGPT. Sutskever had GPT. Hassabis had AlphaGo en AlphaFold. Li's ImageNet was infrastructuur — essentieel maar niet een glanzende consumenten-launch.
Systemische genderbias. Vrouwen in tech krijgen historisch minder publieke aandacht voor hun bijdragen. Dat is een meetbaar patroon in conferentie-sprekers, citaties, onderzoekpublicatie, en media-coverage. Li is zeker niet de enige vrouw wiens bijdrage onderschat is.
Haar stijl. Li is minder luidruchtig dan sommige van haar collega's. Ze geeft relatief weinig publieke interviews. Ze is niet op Twitter aan het provoceren. Haar werk spreekt via wetenschappelijke publicaties en rustige leiderschap.
Geen van deze factoren maakt haar bijdrage minder waard. Ze verklaren alleen waarom ze minder bekend is.
Haar perspectief op AI
Li heeft in haar geschriften en publieke uitspraken een specifieke kijk op AI ontwikkeld. Enkele van haar kernpunten:
Mens-centrale AI. Ze benadrukt dat AI moet worden ontworpen om mensen te versterken, niet te vervangen. HAI (Stanford's instituut) is specifiek rond dit principe georganiseerd.
Diversiteit in AI-onderzoek. Ze heeft actief ingezet op het verbreden van wie aan AI werkt. AI4ALL, een non-profit die ze mede oprichtte, richt zich op het introduceren van AI-onderwijs voor underrepresented groups.
AI en creativity. Ze schrijft over AI als hulpmiddel voor menselijke creativiteit, niet als vervanging. In haar boek The Worlds I See (2023) beschrijft ze hoe AI fundamentele wetenschappelijke ontdekkingen kan versnellen.
Safety and ethiek zonder doomsday. Li neemt AI-safety serieus maar is niet alarmistisch. Ze pleit voor realistische risk-assessment en gerichte interventies in plaats van apocalyptische waarschuwingen.
Haar balans — optimistisch over potentieel, serieus over risico's, gecommitteerd aan toegankelijkheid — maakt haar een waardevolle stem in een debat dat soms gedomineerd wordt door extremen.
De les over data
Li's verhaal bevat een belangrijke algemene les over AI. De meest indrukwekkende technologie ter wereld — moderne AI-modellen — is grotendeels mogelijk gemaakt door data. En data is mensenwerk.
Miljoenen afbeeldingen in ImageNet zijn gelabeld door mensen. Menselijke feedback heeft ChatGPT geleerd zich te gedragen. Klinische data onderliggen elk medisch AI-systeem. Muziek, teksten, video's — allemaal gemaakt door mensen, gebruikt om AI te trainen.
Zonder die data-infrastructuur — en zonder de mensen die haar bouwden, inclusief de anonieme Mechanical Turk-werkers die miljoenen ImageNet-foto's labelden — zou moderne AI niet bestaan.
Dat is een gezonde correctie op het verhaal dat AI "vanzelf" van start is gegaan na een paar genius-ideeën. Het heeft jaren van geduldig, ondankbaar werk gekost, grotendeels onder coördinatie van vrouwen zoals Li en minder zichtbare vrouwen en mannen in haar team.
De erfenis
In 2026 is ImageNet nog steeds in gebruik — zij het minder dominant dan vroeger, nu andere grote datasets zijn ontstaan. De benchmark is deels verdrongen door nieuwere, complexere tests. Maar de onderliggende methodologie — crowdsourced labeling op schaal — is overal.
Li's invloed strekt zich verder uit. Haar onderzoekslab bij Stanford heeft vele generaties AI-onderzoekers opgeleid, waarvan velen nu leidende rollen hebben in de industrie. Haar pleidooi voor diverse AI-ontwikkeling heeft het veld gevormd. Haar mens-centrale benadering beïnvloedt beleidsdiscussies wereldwijd.
Ze is niet de vrouw die de AI-geschiedenis heeft geschreven. Maar ze is een van de vrouwen zonder wie AI-geschiedenis onvolledig is. En in 2026 worden haar bijdragen breder erkend dan ooit — in academische kringen, in gerichte AI-onderwijs-programma's, in de generatie studenten die haar werk hebben bestudeerd.
Een afsluitende observatie
Wanneer we terugkijken op AI-history, vertellen we vaak het verhaal van plotselinge doorbraken. Neural networks die in 2012 werkten. Transformers in 2017. ChatGPT in 2022. Dat is een meeslepend verhaal.
Maar achter elk van deze doorbraken liggen jaren van geduldig werk dat minder opvalt. Datasets bouwen. Compute-infrastructuur ontwikkelen. Fundamenteel onderzoek doen zonder duidelijke commerciële payoff. Dat werk is niet glamorous. Het krijgt minder aandacht. Maar zonder dat werk, geen doorbraken.
Fei-Fei Li is een exemplarisch voorbeeld van dit type bijdrage. Ze zag in 2006 een probleem (we hebben grote datasets nodig). Ze heeft drie jaar geïnvesteerd om het op te lossen. Dat was niet sexy, maar het was onmisbaar.
De AI-goden die we kennen — Hinton, Sutskever, Altman — hebben allemaal vaardigheden en bijdragen die erkenning verdienen. Maar de AI-moeder die we minder vaak noemen — Fei-Fei Li — heeft de infrastructuur gebouwd waarop zij konden construeren.
Dat verdient meer aandacht dan het krijgt. Haar verhaal is een herinnering dat fundamentele vooruitgang zelden komt van één briljant idee, maar van een ecosysteem van bijdragen — en dat een deel van die bijdragen vaak onzichtbaar blijft totdat iemand de moeite neemt ze zichtbaar te maken.
Li heeft haar eigen geschiedenis verteld in haar boek. Andere onzichtbare bijdragers zullen meer tijd hebben om hun verhalen te vertellen. Tot die tijd: lees het boek. Verdiep je in het verhaal dat niet in de standaard-AI-mythologie staat. Je zult ontdekken dat de grondvesten van moderne AI breder en diverser zijn dan de populaire vertelling suggereert.
En dat is een gezonde correctie op hoe we over deze technologie leren praten.
Veelgestelde vragen
Wat is ImageNet precies?+
Een dataset van ongeveer 14 miljoen afbeeldingen, verspreid over duizenden categorieën. Elke afbeelding is gelabeld door mensen via crowdsourcing (Amazon Mechanical Turk). Het werd de standaard benchmark voor beeldherkenning vanaf 2010.
Hoe lang duurde het om te bouwen?+
Ongeveer drie jaar (2007-2009), met een team van mensen. Het was gigantisch werk — labeling van miljoenen afbeeldingen vereist enorme coördinatie.
Waarom was het zo belangrijk?+
Neural networks hadden altijd al bestaan, maar werkten slecht zonder voldoende gelabelde data om op te trainen. ImageNet leverde die data op een schaal die voorheen niet beschikbaar was. Dat maakte de 2012 AlexNet-doorbraak mogelijk.
Waarom is ze minder bekend dan Hinton of Bengio?+
Vermoedelijk meerdere factoren: haar werk was infrastructuur (data) in plaats van glamorous architecturen; vrouwen in tech krijgen historisch minder aandacht; haar later werk bij Google Cloud was minder publiciteitsgericht.