AI in het onderwijs — de stille ontwrichting die we nog niet begrijpen
Voor het onderwijs was AI eerst een crisis, toen een noodverband, en inmiddels iets waarvan niemand precies weet hoe het eruit moet zien. Tussen de regels van officiële beleidsnota's gebeurt er iets wat we pas achteraf goed gaan begrijpen.
In januari 2023, zes weken na de lancering van ChatGPT, kondigde de New York City Department of Education aan dat ChatGPT op alle schoolnetwerken werd geblokkeerd. Zorgen over "negative impact on student learning, and concerns regarding the safety and accuracy of content". Andere grote schooldistricten volgden — Los Angeles, Seattle, steden in Europa, Australië.
Acht maanden later, in september 2023, trok New York het verbod in. De reden was duidelijk: studenten gebruikten ChatGPT op hun eigen telefoons, hun eigen thuiscomputers, gewoon andere apps. Het schoolnetwerk kon blokkeren wat het wilde; de technologie was er. Verbieden werkte niet — het beschermde alleen de school van het moeten erkennen wat er buiten haar muren gebeurde.
Sindsdien is het onderwijs aan een onrustige zoektocht bezig. Tussen verbod en integratie, tussen bescherming en emancipatie, tussen klassiek onderwijs en AI-versneld leren. Drie jaar later is die zoektocht niet klaar — misschien begint ze zelfs pas.
De eerste golf: paniek en verboden
De eerste reacties op ChatGPT in onderwijs waren voorspelbaar paniekerig. Docenten ontdekten dat studenten essays inleverden die duidelijk AI-geschreven waren — grammaticaal perfect, inhoudelijk saai, stilistisch typerend generiek. Examens moesten worden herzien. Take-home-opdrachten leken plotseling onbruikbaar.
Verboden waren het eerste reflex. Ze hadden voordelen: ze toonden ouders en bestuur dat scholen actie ondernamen. Ze hadden ook grote nadelen. Studenten kregen het idee dat AI stiekem was — wat de vaardigheid om er openlijk kritisch mee om te gaan, ondermijnde. Docenten moesten energie besteden aan handhaven in plaats van onderwijzen. En de verboden werkten niet: binnen weken hadden alle studenten manieren gevonden om ze te omzeilen.
Een tweede reflex was AI-detectie. Software die beweerde AI-geschreven tekst te kunnen herkennen — Turnitin's AI-checker, GPTZero, Copyleaks. Deze tools werden massaal ingezet. Ze bleken onbetrouwbaar. Valse positieven — studenten die onterecht werden beschuldigd van AI-gebruik — waren veel. Specifieke groepen werden disproportioneel getroffen: studenten met Engels als tweede taal werden door sommige checkers structureel verdacht gemaakt omdat hun schrijfstijl simpler was. Turnitin heeft in 2024 zijn AI-detector deels gedeprioritiseerd omdat de fout-percentages te hoog waren voor verantwoord gebruik.
De tweede golf: integratie en experimenten
Rond de helft van 2023 begonnen scholen met andere benaderingen. In plaats van AI verbieden, het integreren. Studenten moeten leren ermee werken. Leerkrachten moeten bijdragen aan een gezonde relatie met deze tools.
In Nederland kwam het SLO (Stichting Leerplan Ontwikkeling) met richtlijnen over verantwoord AI-gebruik in onderwijs. Universiteiten publiceerden beleid. De Britse onderwijsinspectie (Ofsted) hoogde de standaarden. De discussie verschoof van "mag het?" naar "hoe dan wel?"
Nieuwe toetsingsmethoden verschenen. Meer in-class schrijven, minder thuis. Mondelinge toetsen om begrip te verifiëren. Projectwerk met duidelijke rubrics over welke AI-hulp is toegestaan. Begeleide schrijfprocessen waarin studenten hun denkstappen moeten tonen.
Sommige docenten omarmden AI als leermiddel. "Gebruik ChatGPT om je eerste concept te schrijven, verbeter het dan kritisch. Lever beide versies in." Anderen gebruikten AI als sparring-partner. "Vraag ChatGPT om je argument te bekritiseren. Herschrijf je essay om die kritiek te adresseren."
Een derde groep bleef behoudender. Sommige docenten in specifieke vakken (geschiedenis, filosofie) bleven overtuigd dat AI-gebruik het leren ondermijnde en hielden vast aan pen-en-papier-methoden. Soms gesteund door universiteiten, soms in hun eentje.
De persoonlijke AI-tutor
Tegelijk ontstond een andere kant van de onderwijstransformatie. In mei 2023 kondigde Sal Khan van Khan Academy "Khanmigo" aan — een AI-tutor specifiek getraind voor onderwijs. De aanpak: Khanmigo geeft niet direct antwoorden. Het stelt Socratische vragen. "Wat denk je dat het antwoord is? Waarom?" Het helpt studenten zelf tot begrip te komen.
In zijn TED-talk over Khanmigo schetste Khan een visie. Elk kind kan toegang hebben tot een onvermoeibare, geduldige, gepersonaliseerde tutor. Wat vroeger het privilege was van rijke families met privédocenten, wordt nu in principe universeel beschikbaar.
Dat is een krachtig idee. Decennia van onderzoek laat zien dat individuele tutoring significant effectiever is dan klassikaal onderwijs (de "two sigma"-studie van Benjamin Bloom uit 1984). Maar individuele tutoring is duur — vroeger alleen beschikbaar voor wie het kon betalen. AI verandert dat potentieel.
In 2026 zijn er verschillende AI-tutor-systemen. Khanmigo (Khan Academy). Google's LearnLM. Duolingo heeft AI-gesprekken. Microsoft heeft Copilot voor studenten. Meerdere startups richten zich op specifieke leeftijdsgroepen of vakgebieden.
De vroege data lijkt gunstig. Studenten die Khanmigo gebruiken, scoren gemiddeld beter op vervolgexamens. Studenten die individuele AI-tutoring krijgen naast reguliere les, lijken verrijkt te leren. De belofte — "individuele onderwijskwaliteit voor iedereen" — lijkt realistisch op zijn minst in sommige vormen.
De ongelijkheid-vragen
Maar er is een fundamentele zorg. AI-onderwijs vereist toegang tot technologie en een redelijk niveau van thuiscomfort met die tools. Studenten uit welvarende gezinnen hebben de hardware, het internet, de ouders die helpen met AI-geletterdheid. Studenten uit minder welgestelde gezinnen hebben dat minder vaak.
Dit is het klassieke "digital divide"-probleem in nieuwe vorm. AI-tutoren kunnen theoretisch universeel beschikbaar zijn, maar in praktijk leiden ze tot een nieuwe uitbreiding van onderwijs-ongelijkheid. Welvarende studenten krijgen én klassiek onderwijs én AI-assistentie. Minder welvarende studenten krijgen alleen het eerste.
Een tweede zorg: digitale basisvaardigheid is niet gelijk verdeeld over sociaal-economische lijnen. Studenten die vanaf jong met technologie opgroeien (vaak welvarender), vinden AI-tutoring intuïtief. Anderen moeten leren ermee om te gaan. Die kloof vertaalt zich in onderwijsuitkomsten.
Beleid probeert dit te compenseren. Schoolbibliotheken bieden AI-toegang. Programma's trainen docenten om studenten zonder thuis-technologie te ondersteunen. Maar de ongelijkheid is hardnekkig.
De vraag van wat we leren
Onderliggend aan de praktische problemen zit een diepere vraag: wat willen we eigenlijk dat kinderen in 2026 leren? Als AI basale taken (schrijven, rekenen, onderzoeken) kan doen, is het zinvol om die taken centraal in curricula te houden?
Twee visies botsen.
De fundamentalist. Kinderen moeten de basis leren. Pen-en-papier schrijven. Hoofdrekenen. Handmatig onderzoek. Niet omdat ze die vaardigheden dagelijks zullen gebruiken, maar omdat ze de hersenstructuur opbouwen die nodig is voor hogere-orde-denken. AI gebruiken zonder basis is als een calculator gebruiken zonder te begrijpen wat vermenigvuldigen is.
De pragmaticus. Wat AI goed doet, hoeven kinderen niet meer te oefenen. Wat telt is hoe je AI effectief gebruikt, hoe je output kritisch beoordeelt, hoe je je skills inzet op taken die AI niet goed kan. Energie besteden aan handmatig schrijven is verspilling van leer-tijd die beter aan hogere niveaus kan worden besteed.
Beide visies hebben merit. De fundamentalist heeft cognitief onderzoek aan haar kant — studies tonen dat handgeschreven notities beter leiden tot retentie dan getypte. De pragmaticus heeft de praktijk aan haar kant — als AI straks in elk beroep wordt gebruikt, is daarop voorbereiden zinvol.
Het werkelijke antwoord zit waarschijnlijk ergens in het midden. Maar waar precies, wordt per school, per ouder, per curriculumcommissie verschillend besloten. Er is geen nationale consensus. Dat creëert verwarring en ongelijkheid.
De docent-ervaring
Vaak onderbelicht: de impact op docenten zelf. Lesgeven in 2026 is substantieel anders dan in 2022. Docenten moeten:
- AI-gebruik van studenten herkennen en begeleiden
- Nieuwe toetsingsmethoden ontwerpen die AI-proof of AI-inclusief zijn
- Bijblijven bij AI-ontwikkelingen om relevant te zijn
- Ouders begeleiden die vaak minder AI-geletterd zijn dan kinderen
- Beleid volgen dat jaarlijks verandert
- Hun eigen werk herzien — waarvoor gebruik ik AI, waar niet?
Dit alles bovenop hun oorspronkelijke verantwoordelijkheid. Veel docenten rapporteren uitputting en overweldiging. Sommige verlaten het beroep. Anderen vinden juist energie in de uitdaging.
De lerarenopleiding is langzaam bijaangepast. Nieuwe docenten krijgen AI-module's. Maar zittende docenten moeten het grotendeels zelf bijleren. Professional development is vaak vrijwillig en onder gefinancierd.
Wat 2026 uitwijst
Vier jaar AI in onderwijs levert gemengde lessen op.
Verbieden werkt niet. Dat is afgerond. Geen enkele serieuze onderwijsinstelling hanteert nog een volledig verbod. De beste institutioneel beleid combineert duidelijke regels (wat mag, wat niet) met educatie over verantwoord gebruik.
AI-detectie is onbetrouwbaar. Tools zijn verbeterd maar niet perfect. De meest verstandige benadering is niet "detecteer AI-fraude" maar "ontwerp opdrachten waar AI-fraude moeilijk of zinloos is". In-class werk, presentaties, projectwerk met proces-tracking.
Persoonlijke AI-tutoring werkt, met voorwaarden. Wanneer goed ontworpen (Socratische vragen, niet direct antwoorden), verbetert het leren. Wanneer gebruikt als antwoord-machine, ondermijnt het juist het leren. Het verschil zit in pedagogisch ontwerp.
Ongelijkheid groeit potentieel. Toegang tot AI-onderwijs is niet gelijk verdeeld. Beleidsmakers moeten actief compenseren, of de kloof verdiept zich.
Docenten zijn cruciaal. Geen AI vervangt een goede docent. Maar docenten moeten support krijgen om in de nieuwe werkelijkheid te functioneren.
De diepere vraag blijft
Wat echt onbeantwoord blijft: wat is de bedoeling van onderwijs in een wereld met AI?
Als het doel is kennis overdragen, kan AI dat effectiever doen dan veel klassieke onderwijsmodellen. Als het doel is vaardigheden trainen, moeten we vragen welke vaardigheden in een AI-wereld relevant blijven. Als het doel is karakter vormen — nieuwsgierigheid, doorzettingsvermogen, morele ontwikkeling — hoe doen we dat in een context waar elke opdracht een AI-assistent beschikbaar heeft?
Die vragen hebben geen technische antwoorden. Ze zijn maatschappelijk en filosofisch. Ze verdienen expliciete discussie, niet stilzwijgende verandering door technologie.
In 2026 voeren we die discussie ad hoc — per school, per klas, per individuele docent. Dat is niet genoeg. Maar het is wat we hebben.
De studenten die in 2026 naar de basisschool gaan, zullen in een wereld verdienen die we nu nauwelijks kunnen voorstellen. Hoe we hen voorbereiden — of liever, hoe we hen helpen zichzelf voor te bereiden — is waarschijnlijk het belangrijkste onderwijsvraagstuk van onze tijd.
En we zijn er nog niet uit wat het antwoord is. Dat is oncomfortabel. Maar het is waar.
Veelgestelde vragen
Werken verboden?+
Nauwelijks. New York City haalde in september 2023 zijn verbod in minder dan een jaar in na de realisatie dat studenten AI op hun eigen apparaten gebruiken. De meeste onderwijsinstellingen zijn overgestapt op regulering en integratie.
Hoe weten docenten of AI is gebruikt?+
Moeilijk. AI-detectie-tools (zoals Turnitin's AI-checker) hebben hoge valse positief-rates. Ze beschuldigen vaak onschuldige studenten. Sommige universiteiten hebben ze gestopt te gebruiken vanwege onrechtvaardige beschuldigingen.
Leren studenten minder door AI-gebruik?+
Gedeeltelijk ja, gedeeltelijk nee. Routine-taken die AI overneemt (samenvatten, basale essays) leren ze inderdaad minder als ze nooit oefenen. Hogere-orde-taken (kritisch denken, oorspronkelijke analyse) kunnen juist baten van AI als sparring-partner.
Wat is de Khanmigo-aanpak?+
Khan Academy's AI-tutor (Khanmigo) is specifiek getraind om niet direct antwoorden te geven maar Socratische vragen te stellen. Het helpt studenten zelf op antwoorden te komen. Een vroege poging om AI pedagogisch te laten werken, niet alleen antwoord-te-geven.