Het moment dat software stopte met gehoorzamen — en begon te ontdekken
Zestig jaar lang werd software geschreven als een serie bevelen. Doe dit, doe dat, herhaal. Dan kwam een nieuw idee binnen door een zijdeur, en niemand lette op tot het al alles had veranderd.
Alles wat je tot ongeveer 2012 op een computer deed, had dezelfde basisvorm. Iemand had regels geschreven, die regels werden uitgevoerd. Klik op icoon, open programma. Toets indrukken, karakter verschijnt. Som uitrekenen, antwoord verschijnt. Zo simpel mogelijk geformuleerd: software deed wat je zei.
Het lukte niet altijd goed. Bugs zijn regels die fout geschreven zijn. Crashes zijn regels die op onverwachte situaties stuiten. Software stond of viel met de kwaliteit van de regels en de verbeelding van de schrijver. De grens van wat een computer kon doen was precies de grens van wat mensen expliciet konden opschrijven.
Dat klinkt triviaal tot je beseft hoeveel het uitsloot. Hoe schrijf je een regel voor "herken deze kat in deze foto"? Voor elke kat-oriëntatie, elke belichting, elke rasvariant, elke poot-positie een aparte regel? Onbegonnen werk. Jarenlang stonden hele onderzoeksgebieden stil, niet omdat de machines te langzaam waren maar omdat de regels onmogelijk waren op te schrijven.
Tot een omslag begon, langzaam genoeg dat bijna niemand hem zag komen.
De omkering
Machine learning is in de kern één simpele omkering. In plaats van regels opschrijven en resultaten krijgen, laat je de machine voorbeelden zien — input met het juiste antwoord erbij — en laat je haar zelf de regels ontdekken. De werkstappen zijn dezelfde gebleven: input, regel, output. Maar wie de regel schrijft, is veranderd.
Je vertelt het systeem niet "als de foto oren heeft, twee ogen, snorharen en vier poten, is het een kat". Je laat haar tienduizend foto's zien die door mensen als kat of niet-kat gelabeld zijn, en zij ontdekt zélf welke patronen het verschil maken. Welke patronen dat precies zijn, weet niemand aan het eind. Het werkt.
Dat is een filosofische verschuiving, geen louter technische. Programmeurs waren de auteurs van gedrag. Nu zijn ze de leveranciers van voorbeelden. Dat is een andere beroep. Iemand die een fotoherkenner "programmeert" in 2025 heeft vooral data gecureerd, niet code geschreven.
Waarom dit alles verandert
Uit deze ene verschuiving volgen bijna alle eigenaardigheden van moderne AI. De onvoorspelbaarheid komt eruit voort: omdat niemand de regels expliciet heeft opgeschreven, kan niemand precies voorspellen wat het systeem in een nieuwe situatie zal doen. Daarom hebben AI-modellen zogenoemde "adversarial examples" — foto's waarin een paar gemanipuleerde pixels het model laat denken dat een schildpad een geweer is. Niemand heeft een regel geschreven die zegt "reageer vreemd op deze specifieke pixels". Die regel is er wel, in impliciete vorm, opgesloten in de getrainde gewichten.
Het emergente gedrag van grote taalmodellen komt er ook uit voort. Een model dat getraind is op "tekst voorspellen" blijkt plotseling te kunnen vertalen, sommen oplossen, argumenten schrijven. Niemand heeft die vaardigheden gespecificeerd. Ze zaten blijkbaar impliciet in de trainingsdata en kwamen bovendrijven bij voldoende schaal.
En het gebrek aan uitlegbaarheid — het hele "black box"-probleem — komt er direct uit voort. Als de regels nooit door een mens zijn opgeschreven, is er geen handleiding. Er is alleen een netwerk van miljarden gewichten, waarvan elke afzonderlijke geen betekenis heeft maar die samen een gedrag produceren dat we herkennen.
Een andere soort auteur
Voor bijna elke techniek die mensen ooit hebben gemaakt, gold dat je als maker beter begreep wat je maakte dan wie het gebruikte. Een smid wist hoe een schep werkte. Een ingenieur wist waarom een brug bleef staan. Een programmeur wist wat zijn code deed.
Bij moderne AI is die relatie voor het eerst gebroken. De makers weten niet helemaal wat hun eigen systemen doen. Ze kunnen ernaar kijken, ze kunnen testen, ze kunnen fine-tunen — maar een volledig inzicht in waarom het model op een specifieke input precies deze output geeft, heeft niemand. Niet de onderzoekers bij OpenAI, niet die bij Anthropic, niet bij Google DeepMind.
Dat is historisch ongezien. We hebben een techniek uitgevonden die deels boven onze eigen kennis uitstijgt, niet omdat hij ons overtreft maar omdat zijn interne logica nooit door ons is geformaliseerd.
Wat we hiermee moeten
De praktische consequentie is dat we moeten leren om op een andere manier met software om te gaan. Regel-gebaseerde systemen laten zich auditen, bewijzen, certificeren. Als je wil controleren of een boekhoudprogramma correct telt, kun je de optellogica doorlopen. Bij een getraind model werkt dat niet. Je kunt alleen testen of het in situaties die je vooraf hebt gedefinieerd juist reageert. Wat het in situaties doet die je niet hebt bedacht, blijft een empirische vraag.
Wetgeving (zoals de EU AI Act) probeert dit op te vangen door eisen te stellen aan testprocedures, documentatie en verantwoording. Maar de fundamentele eigenschap blijft: je hebt met iets te maken dat niet geschreven is maar gegroeid.
De meest onderschatte consequentie is echter cultureel. Zestig jaar lang leefden we met de metafoor van de computer als gehoorzame rekenaar. Snel, foutloos, dom, maar betrouwbaar. Die metafoor deugt niet meer. De computer op je bureau is niet meer een machine die uitvoert wat je zegt. Het is deels nog steeds dat — en deels iets anders, een systeem dat uit voorbeelden eigen regels heeft gevormd, die we alleen van buitenaf kunnen leren kennen.
Wie nog denkt in de oude metafoor, zal door de nieuwe werkelijkheid regelmatig verrast worden. Wie het verschil begrijpt, is niet gerustgesteld. Wel geïnformeerder.
Veelgestelde vragen
Is regel-gebaseerde software nu verouderd?+
Verre van. Banksystemen, vliegtuigbesturing, medische apparatuur en bijna alle kritische infrastructuur draaien nog op klassieke, regel-gebaseerde software. Het voordeel is voorspelbaarheid en controleerbaarheid. Machine learning wordt gebruikt waar regels te complex zijn om te formaliseren — beeldherkenning, taal, gedragsvoorspelling — niet overal.
Waarom "ontdekken" en niet "leren"?+
Het verschil is filosofisch. "Leren" suggereert dat er een leraar is die de regels kent en ze overdraagt. Bij machine learning is er geen leraar die weet wat de machine moet leren — alleen voorbeelden. De machine ontdekt patronen die wij zelf vaak niet kunnen formuleren.
Kan een mens de regels van een getraind model achteraf lezen?+
Vrijwel nooit. Dat is een kernprobleem. Een taalmodel met honderd miljard parameters is voor een mens onleesbaar. Het onderzoeksveld *mechanistic interpretability* probeert stukjes ervan te ontsluieren, maar een volledig overzicht bestaat niet.
Is dit wat mensen bedoelen met "black box AI"?+
Ja. De term beschrijft het feit dat je de input ziet, de output ziet, maar niet goed kunt uitleggen waarom de output precies deze is. Dat heeft juridische en ethische gevolgen, vooral in sectoren waar beslissingen moeten worden verantwoord.