De bittere les — waarom menselijk vernuft steeds verliest van rekenkracht
Zestig jaar lang probeerden slimme mensen AI slim te maken door er hun eigen slimheid in te stoppen. Dat werkte zelden. Wat wél werkte was bruter — en pijnlijker om toe te geven.
In maart 2019 publiceerde Richard Sutton, een van de grondleggers van reinforcement learning, een kort essay op zijn website. Het heette The Bitter Lesson. Het was geen wetenschappelijk paper, geen formele publicatie. Gewoon een stuk tekst, ongeveer 750 woorden lang, met een stelling zo simpel dat ze onwennig maakte.
De stelling: in 60 jaar AI-onderzoek blijkt steeds dezelfde patroon. Mensen proberen AI slim te maken door er hun eigen kennis in te stoppen — regels, intuïtie, heuristieken. Dat werkt tijdelijk. En dan wordt het elke keer weer ingehaald door een andere aanpak: meer compute op meer data, gecombineerd met algemene lerende methoden. De menselijke kennis wordt op een gegeven moment overbodig. Sutton noemde dit "bitter" omdat onderzoekers die hun carrière hadden gebouwd op domeinspecifieke expertise keer op keer hun werk zagen vervangen door simpele brute-force technieken.
Zes jaar later lijkt Sutton's les moeilijker te betwisten dan ooit.
De gevallen
Schaken. Van 1956 tot 1997 probeerden ontwerpers van schaakprogramma's menselijke schaakkennis in te bouwen. Openingstheorieën, strategische principes, positionele beoordelingen. De doorbraak kwam met Deep Blue (1997), die Kasparov niet versloeg door slimmer te denken maar door miljoenen meer zetten per seconde door te rekenen. Brute zoekkracht, met relatief eenvoudige waardering-functies. De schaakwereld vond het aanvankelijk beledigend — "dat is geen denken". Sutton vindt het precies de les.
Go. Lange tijd leek Go immuun voor de schaakaanpak. Het aantal mogelijke posities is astronomisch groter, pure zoekmethoden werkten niet. Onderzoekers probeerden decennialang menselijke Go-strategieën in programma's te bouwen. Geen succes. In 2016 versloeg AlphaGo — dat leerde via self-play vanaf nul, zonder menselijke strategieën — de beste Go-speler ter wereld. De winnende zet 37 in de tweede partij werd door experts aanvankelijk als "slecht" bestempeld en daarna als geniaal herinterpreteerd. De computer had iets gevonden wat geen mens ooit had bedacht — door simpelweg genoeg partijen tegen zichzelf te spelen.
Beeldherkenning. Vóór 2012 probeerden onderzoekers beeldherkenningsalgoritmen met handgebouwde features: "kijk naar hoeken, randen, gradiënten". De resultaten waren matig. Het AlexNet-team won in 2012 de ImageNet-competitie met grote marge door simpelweg een diep neuraal netwerk te trainen op veel data. Geen handgebouwde features. Het netwerk leerde zelf wat relevant was. Sindsdien zijn alle beeldherkenningsdoorbraken in die lijn.
Taal. Tot ongeveer 2017 waren taal-AI-systemen vol van grammaticale regels, syntactische parsers, semantische kennisbanken. De resultaten waren beperkt. Transformers — die geen enkele grammaticale voorkennis hebben — versloegen dat alles met puur leren uit ruwe tekst. Chomsky en veel taalkundigen vonden dit theoretisch onbevredigend. De machines vonden het niet uit.
Sutton's lijst gaat door. In elk domein waar AI uiteindelijk doorbraakte, kwam de doorbraak niet van geavanceerde menselijke kennis. Ze kwam van een algemene methode die met schaal verbeterde.
Waarom het "bitter" is
Het bittere zit in twee dingen.
Ten eerste is er de verspilde moeite. Honderden onderzoekers hebben carrières besteed aan het formaliseren van domeinspecifieke kennis. Vertaalregels, schaakheuristieken, medische decision trees. Al dat werk blijkt, als voldoende compute en data beschikbaar komen, overbodig. Niet omdat het slecht werk was. Omdat het het verkeerde werk was.
Ten tweede is er het filosofische ongemak. Als intelligentie zich laat vervangen door "genoeg compute plus genoeg data", is ze dan nog wel een mystieke eigenschap? Mensen willen intelligentie graag zien als iets ijl, creatief, uniek. Sutton's les suggereert dat ze deels een kwantitatieve kwestie is — groot genoeg netwerk, veel genoeg data, en je krijgt er intelligentie uit. Dat wrijft tegen onze intuïtie.
De tegenargumenten
Critici zeggen terecht dat de bittere les onvolledig is. Data is geen gratis grondstof — iemand moet ze cureren, labellen, verzamelen. Dat is mensenwerk dat niet te vervangen is door compute. Ook domeinen waar data schaars is (zeldzame ziektes, bijzondere wetenschappelijke problemen) kunnen niet simpel geschaald worden.
Daarnaast: de bittere les verklaart waarom méér compute vaak werkt, maar niet welke architectuur de compute efficiënt benut. De transformer is zelf een vondst van menselijke creativiteit. Zonder het architectuur-inzicht dat attention voldoende was, was puur schalen van RNN's niet gelukt. Zo bezien is Sutton's dichotomie (menselijke kennis versus algemene methoden) te strikt. Algemene methoden zijn zelf resultaat van menselijke creativiteit, alleen op een abstracter niveau.
Ook in het veld van veiligheid werkt de bittere les niet schoon. Alignment — het zorgen dat AI doet wat mensen willen — valt niet simpel te reduceren tot "meer compute". Het vraagt juist specifieke menselijke input over waarden, voorkeuren, randvoorwaarden.
Wat het betekent in 2026
Sutton's les is een strategische waarschuwing voor AI-onderzoek. Bedrijven en labs die inzetten op domeinspecifieke kennis — "wij bouwen een model specifiek voor juridische analyse met ingebakken juridische expertise" — worden vaak ingehaald door general-purpose modellen die, met genoeg schaal, net zo goed blijken te zijn of beter. Het patroon herhaalt zich voor medische AI, codeer-AI, wetenschappelijke AI.
Dat heeft economische consequenties. Bedrijven zonder toegang tot grote rekenkracht kunnen moeilijk concurreren op deze manier. Het is een van de redenen dat AI-onderzoek zich concentreert in een klein aantal grote spelers met enorme GPU-vloten.
Tegelijk opent het een andere strategie: niet concurreren op het niveau van foundation models, maar daar bovenop bouwen met specifieke data en gerichte toepassingen. Dat is waar veel waarde voor mkb en specialistische industrieën zit.
De ontnuchtering
Wat Sutton eigenlijk heeft geformuleerd is een vorm van menselijke ontnuchtering. Niet een vernedering — hij noemt menselijke inzichten niet waardeloos. Maar hij wijst op een patroon: wat we denken dat onze kennis waardevol maakt in AI-systemen, blijkt keer op keer minder waardevol dan we hoopten. De brute methode met veel data wint.
Misschien is dat een diepere les over ons zelf. Dat we intelligentie hebben opgebouwd uit een lange periode van "compute" (miljoenen jaren evolutie) plus "data" (alles wat we van de wereld gezien hebben), en dat we die achtergrondkostprijs vergeten als we onze intuïtie als direct waardevol zien. Onze eigen intuïtie is ook resultaat van eenzelfde soort rauwe iteratie, alleen uitgesmeerd over geologische tijd.
Als dat klopt, is de bittere les niet echt bitter. Ze is alleen ongemakkelijk voor onderzoekers die dachten dat hun bijdrage uniek was, terwijl ze misschien vervangbaar was. Het goede nieuws is dat de vervanger niet méér van hetzelfde is — maar iets dat door voldoende iteratie van niets naar veel kan groeien.
Precies zoals het met ons is gegaan.
Veelgestelde vragen
Is de bittere les universeel waar?+
Sutton beweert het, en de empirische geschiedenis van AI bevestigt het grotendeels. Maar niet iedereen is het eens. Sommigen stellen dat in domeinen met weinig data (zeldzame ziektes, fysieke manipulatie) menselijke kennis nog steeds cruciaal is.
Wat betekent dit voor onderzoekers?+
Sutton's impliciete advies is oncomfortabel: zet minder in op domeinspecifieke kennis, meer op algemene methoden die met schaal verbeteren. Onderzoeksprogramma's die proberen menselijke intuïtie in modellen te bouwen, eindigen vaak ingehaald door general-purpose modellen.
Werkt de bittere les ook voor robotica?+
Gedeeltelijk. Fysieke systemen hebben realwereld-beperkingen die puur rekenkracht niet wegneemt. Maar de recente sprong in robotica (Figure, Tesla Optimus, Google RT-2) komt grotendeels van het toepassen van taalmodel-technieken — een bevestiging van Sutton's principe.
Wat is de optimistische lezing?+
Dat intelligentie minder speciaal is dan we dachten. Ze laat zich samenvatten in genoeg rekenkracht plus genoeg data. Dat maakt intelligentie uiteindelijk een productierekening — iets democratischer dan de mystieke eigenschap die ze leek.