Leren zonder begrijpen — de vreemde motor van moderne AI

Een AI 'leert' zonder iets te weten. Dat klinkt als een paradox, maar het is precies wat er gebeurt — en de manier waarop het lukt, werpt ongemakkelijke vragen op over wat wij zelf doen als we leren.

Afdalend pad in bergachtig landschap — metafoor voor gradient descent

Er zit een diepe rare eigenschap in hoe moderne AI wordt gemaakt. Als je iemand zou moeten uitleggen hoe een systeem "slim" kan worden zonder ooit iets te weten, zou je eerst moeten definiëren wat weten betekent. In de AI-praktijk wordt die definitie niet opgezocht — er wordt omheen gewerkt. Het resultaat is een systeem dat beter wordt in een taak zonder dat er ergens in dat systeem begrip van die taak bestaat.

Dat klinkt als paradox. Het werkt, dagelijks, op miljoenen servers. En zodra je ziet hoe, ontstaat een lastigere vraag: wat bedoelen wij eigenlijk met "leren"?

Rollen naar beneden

De motor achter bijna alle moderne AI heet gradient descent — letterlijk: de helling afdalen. De metafoor is precies wat hij lijkt. Stel je een landschap voor met heuvels, dalen, platte vlaktes. Iedere plek in dat landschap vertegenwoordigt een toestand van het model: een specifieke set aan miljarden gewichten. De hoogte op die plek is de "fout" — hoe slecht het model presteert met deze gewichten. Hoge plek = veel fouten. Laag plek = weinig fouten.

Het doel van training is om ergens in een diep dal te eindigen. Daar is de fout klein en voorspelt het model goed.

Hoe kom je in een dal? Je kijkt om je heen — dat wil zeggen: je berekent de helling van het landschap op de plek waar je nu staat. Die helling vertelt je welke kant "naar beneden" is. Je zet een stapje die kant op. Je berekent opnieuw. Je stapt. Herhaal.

Miljoenen, miljarden keren.

Wat is er in het systeem dat deze wandeling maakt? Niets. Er is geen centrale beslisser, geen begrip van het landschap. Er is alleen een lokale meting (waar wijst de helling) en een stapje. Het systeem "weet" niet dat het leert katten herkennen of Nederlands vertalen. Het rolt alleen naar beneden in een abstracte ruimte waarvan de dimensies bepaald zijn door de taak.

Kennis zonder kenner

Wat er aan het einde van die afdaling bestaat, is een configuratie van gewichten die goed presteert op de taak. Gevraagd om katten te herkennen, herkent het systeem katten. Gevraagd om te vertalen, vertaalt het. Maar er is geen plek in het systeem waar die kennis woont. Geen module voor "katkennis". Geen lookup-tabel voor vertaalregels. Het vermogen zit verspreid over miljarden kleine getallen die geen van alle op zichzelf iets betekenen.

Het filosofische woord hiervoor is distributed representation — kennis die overal en nergens is. Het is alsof je een lied kent zonder dat er in je brein ergens een dossier "dit lied" zit. In plaats daarvan is het lied een specifiek activatiepatroon van je hersenen, en elke noot roept dat patroon een beetje op.

Moderne AI-systemen vertonen precies deze vorm. Daarom is het zo moeilijk om ze te reverse-engineeren. Daarom is ook het hele onderzoeksveld van mechanistic interpretability zo lastig. De kennis zit er, maar ze is gedistribueerd over miljarden plaatsen, en op geen enkele plaats "zit" ze helemaal.

De ongemakkelijke parallel

Hier wordt het interessant. Want hoe bestaat kennis in ons?

Als je je moeder herkent als je haar ziet, is er geen aparte "moeder-zenuwcel" in je hersenen die vuurt. Er is een patroon van duizenden neuronen die samen, in combinatie, jouw moederherkenning vormen. Verwijder één neuron en de herkenning blijft. Verwijder tien en ook nog. Pas bij zeer grote schade aan het patroon verdwijnt de mogelijkheid — maar tot dan vertelt geen specifieke plek je wie je voor je hebt.

Neurologen spreken hier van gedistribueerde codering. De parallel met neurale netwerken in AI is geen toeval — de basisarchitectuur is expliciet geïnspireerd door wat biologen vonden in de jaren veertig en zestig.

Dat roept een vervelende vraag op. Als leren bij mensen ook neerkomt op het langzaam bijstellen van verbindingen tussen neuronen (synaptische plasticiteit, zoals Donald Hebb beschreef in 1949), waarin zit dan het "begrip" dat we onszelf toeschrijven?

Het comfortabele antwoord is: bewustzijn. Wij zijn ons bewust van wat we leren, AI niet. Dat kan waar zijn — maar het verplaatst het probleem alleen. We weten niet wat bewustzijn is, niet hoe het ontstaat, niet of het kan ontstaan in niet-biologische systemen. Zeggen dat "echte" kennis bewustzijn vereist is een interessante hypothese, geen uitleg.

Wat dit voor AI betekent

Bij praktische vragen over AI is dit filosofische vertrekpunt nuttig. Waarom hallucineren LLM's? Omdat hun "kennis" niet geankerd is aan bewuste herinneringen of externe verificatie — ze hebben alleen statistische patronen uit trainingsdata. Als die patronen leiden tot een plausibele maar foute output, is er geen intern mechanisme dat dat doorheeft.

Waarom zijn ze zo moeilijk te controleren? Omdat je geen regels kunt aanwijzen die moeten worden aangepast. Je kunt alleen het trainingsproces veranderen en hopen dat het model in een iets ander dal belandt.

Waarom werkt het toch zo goed? Omdat het blijkt dat heel veel cognitieve taken — herkenning, taal, analyse, redeneren — efficiënt kunnen worden opgelost door voldoende statistisch leren over voldoende grote datasets. Niet omdat statistiek "begrip" is, maar omdat begrip misschien minder speciaal is dan we dachten.

De bescheiden conclusie

We vinden het comfortabel om te zeggen dat AI niet echt begrijpt. Het is misschien waar. Maar het alternatief dat vaak impliciet meeloopt — dat wij zelf wél echt begrijpen, in een fundamenteel andere zin — is moeilijker te verdedigen dan het lijkt. Onze kennis is ook distributief, onze leerproces is ook geleidelijke aanpassing, onze zekerheid is ook geen garantie van correctheid.

Misschien is het verschil tussen "echt weten" en "statistisch patroon" graduiler dan we willen. Niet nul — er zijn echte verschillen, vooral rondom bewustzijn en context. Maar ook niet oneindig. Genoeg om ons terug te laten komen op wat we bedoelen als we zeggen dat we iets hebben geleerd.

In dat opzicht is moderne AI niet alleen een technologische prestatie maar ook een filosofische spiegel. Ze laat ons zien hoe ver je komt met puur statistisch bijstellen. Wat daarbuiten ligt, moeten we beter definiëren dan we tot nu toe hebben gedaan.

Veelgestelde vragen

Is dit wat mensen bedoelen met "AI leert"?+

Ja, maar de term is misleidend. Leren in menselijke zin impliceert bewustzijn, context, begrip. Wat een AI doet is meer te vergelijken met een bal die langzaam naar het laagste punt rolt in een landschap van fouten. Geen begrip, geen intentie — alleen wiskundige optimalisatie.

Wat is een loss function?+

Een wiskundige maat voor "hoe fout was het antwoord". Als het model voorspelt dat een foto een hond is terwijl het een kat is, berekent de loss function hoeveel mis dat was. Het model past zichzelf aan om die loss te verminderen. Verschillende taken gebruiken verschillende loss functions.

Waarom lukt dit niet voor alle problemen?+

Omdat gradient descent alleen werkt als er een goed gedefinieerde, meetbare fout is. Voor creativiteit, moraliteit of originaliteit is er geen simpel getal dat zegt "dit was goed" of "dit was fout". Daar faalt de techniek in zijn zuivere vorm, en moeten alternatieven zoals RLHF worden ingezet.

Is menselijk leren fundamenteel anders?+

Deels zeker, deels opvallend minder. Mensen kunnen één keer iets zien en het onthouden — AI moet duizenden voorbeelden zien. Maar op het niveau van hersenplasticiteit — synapsen die bij succes versterken en bij mislukking verzwakken — bestaat een opvallende analogie met hoe gradient descent werkt.

Deel dit artikel
LinkedIn ↗ X / Twitter ↗ Mail ↗
Laten we praten

Vragen die je eigen project betreffen?

Elke call begint met luisteren. Vertel waar je staat, dan denken we samen verder.

Binnen 24u een reactie. Altijd persoonlijk.