GPT-4 — het moment dat AI voor het eerst echt AGI-achtig voelde

Voor GPT-4 was de vraag "kan AI echt denken?" theoretisch. Na GPT-4 werd ze persoonlijk. Mensen die met het model werkten, merkten dat het dingen deed waar ze niet op voorbereid waren. Voor sommigen was dat fascinerend. Voor anderen was het de eerste keer dat ze zich echt zorgen maakten.

Dageraad op een drempel — metafoor voor de GPT-4-doorbraak

Op 14 maart 2023 publiceerde OpenAI een video die een belangrijk moment werd. Greg Brockman, de president van OpenAI, zat in een studio en demonstreerde GPT-4 — hun nieuwe model. Hij schetste met de hand een ruwe tekening van een website. Hij fotografeerde de schets met zijn telefoon. Hij gaf de foto aan GPT-4 met een simpele instructie: "bouw deze website".

Binnen seconden produceerde het model werkende HTML- en CSS-code die de schets trouwhield. Brockman demonstreerde meerdere andere toepassingen. Een moeilijk belastingprobleem oplossen. De situatie in Oekraïne analyseren met context-rijk redeneren. Python-code debuggen die meerdere fouten bevatte.

Voor velen in de tech-industrie was dit het moment waarop ze voelden dat iets fundamenteels was veranderd. ChatGPT in november 2022 had iedereen verrast. Maar ChatGPT draaide op GPT-3.5 — een upgrade van GPT-3. GPT-4 voelde anders. Het voelde niet als een autocompletion tool met goede manieren. Het voelde als iets dat begreep.

Wat anders was

Het verschil tussen GPT-3.5 en GPT-4 was niet alleen kwantitatief. Het was kwalitatief.

Prestaties op standardtests waren dramatisch verbeterd. GPT-3.5 scoorde ongeveer in de 10e percentiel van de Amerikaanse bar exam (bar exam is het examen dat mensen moeten halen om advocaat te worden in de VS). GPT-4 scoorde in de 90e percentiel. Op de LSAT ging het van 40e naar 88e percentiel. Op AP-examens voor specifieke vakken (geschiedenis, biologie, psychologie) haalde het bijna perfecte scores.

Dat zijn menselijke benchmarks. GPT-4 presteerde op een niveau dat vergelijkbaar was met getalenteerde menselijke studenten.

Complex redeneren over meerdere stappen. GPT-3.5 haperde vaak bij problemen die meerdere stappen vereisten. GPT-4 kon complexe redeneerpaden volgen, tussenstappen onthouden, en tot correcte conclusies komen. Niet altijd — hallucinaties bleven — maar veel vaker dan voorheen.

Contextbegrip en instructies volgen. GPT-4 luisterde beter. Subtiele instructies, specifieke format-eisen, constraints over wat niet te zeggen — allemaal werden veel nauwkeuriger gevolgd.

Multimodaliteit (vision). GPT-4 kon afbeeldingen verwerken. Niet alleen oppervlakkig herkennen, maar redeneren erover. Een meme begrijpen (waarom is het grappig?). Een diagram analyseren. Een grafiek interpreteren.

Codering. Professionele software-ingenieurs die GPT-4 begonnen te gebruiken, rapporteerden dramatische productiviteitswinsten. Niet alleen eenvoudige code, maar complexe debugging, architectuur-advies, en zelfs hele projecten.

Voor iedereen die het vergeleek met GPT-3.5 was het verschil voelbaar. Niet een upgrade — een andere klasse van tool.

De reactie

Gebruikers die dagelijks werkten met GPT-4 begonnen dingen te zeggen die in het AI-veld tot dan toe zeldzaam waren. "Het begrijpt me." "Het is slimmer dan sommige collega's." "Ik weet niet precies wat het doet, maar het voelt als iets dat echt denkt."

Sommige commentatoren schreven uitgebreide essays over hun eerste ervaringen. Microsoft Research publiceerde in maart 2023 een 155-pagina-paper getiteld "Sparks of Artificial General Intelligence" — een gedetailleerde analyse van GPT-4's capaciteiten met de suggestie dat het AGI-achtige kenmerken vertoonde.

Andere onderzoekers waren voorzichtiger. Yann LeCun benadrukte dat GPT-4 nog steeds fundamentele beperkingen had (geen wereldmodel, geen echte redeneercapaciteit, beperkte autonome werking). Gary Marcus schreef kritische stukken over hallucinaties en inconsistenties.

Maar voor het grote publiek was GPT-4 het moment dat AI echt, onmiskenbaar capable voelde. Bedrijven die in 2022 "misschien iets met AI doen" planden, herschreven hun strategieën. Investeerders die voorzichtig waren, openden de portemonnee. Startups die eerder niet mogelijk waren, konden plotseling worden gebouwd.

Wat Hinton deed

Voor Geoffrey Hinton — de "godfather" van deep learning — was GPT-4 het moment dat zijn zorgen over AI-risico zich verdiepten.

In interviews na zijn vertrek bij Google in mei 2023 heeft Hinton specifiek GPT-4 genoemd als reden voor zijn verschoven mening. "Ik dacht dat AGI 30 tot 50 jaar weg was," zei hij in een interview met de New York Times. "Na GPT-4 denk ik dat het mogelijk veel korter is."

Zijn specifieke observatie: GPT-4 vertoonde redeneringscapaciteiten die Hinton niet had verwacht. Hij had altijd gedacht dat taalmodellen fundamenteel beperkt waren in hun vermogen om abstract te redeneren. GPT-4 overschreed zijn verwachtingen. Als dat in vier jaar kon gebeuren (van GPT-2 tot GPT-4), wat was de volgende vier jaar mogelijk?

Voor hem was dat genoeg reden om zijn carrière-prioriteiten te heroverwegen. Hij stopte bij Google, begon actief over AI-risico's te praten, werd een van de meest prominente stemmen voor AI-veiligheid.

De beperkingen

Het is fair om te erkennen dat GPT-4 niet het einde van AI was.

Hallucinaties. GPT-4 verzon nog steeds feiten, vooral bij zeldzame onderwerpen of specifieke details. Dit was een materiaal probleem bij commercieel gebruik.

Consistency. Vraag hetzelfde op twee verschillende manieren, krijg soms verschillende antwoorden. Deze variabiliteit maakte productie-gebruik uitdagend.

Context-limieten. Beperkt tot 32.000 tokens (later 128.000) context. Voor echt lange documenten of gesprekken schoot het tekort.

Geen echt leren. Elke sessie begon opnieuw. GPT-4 "onthield" niet wat je eerder had gezegd tussen sessies. Voor persoonlijke toepassingen was dit frustrerend.

Beperkte multimodaliteit. Vision werkte, maar was niet overal beschikbaar, was beperkter dan tekstverwerking, en trager.

Geen agentic capaciteiten. GPT-4 kon niet zelf acties ondernemen — geen web browsing, geen bestanden lezen, geen code uitvoeren. Alles moest via een menselijke mediator.

Deze beperkingen zouden in de daaropvolgende jaren worden aangepakt (plugins, agents, reasoning, lange context). Maar in maart 2023 waren ze er.

De commerciële wave

Na GPT-4 gingen bedrijven in grote aantallen AI implementeren. Niet experimenten meer — serieuze productie-inzet.

Customer service met GPT-4. Content creatie met GPT-4. Juridische analyse met GPT-4. Software development met GPT-4. Microsoft integreerde GPT-4 in Bing, in Office (Copilot), in GitHub (Copilot X). Hele bedrijfslijnen werden gebouwd op GPT-4-API's.

De kostencurve was ook belangrijk. GPT-4 was duur — ongeveer $0,03-0,06 per 1.000 input-tokens, veel meer dan GPT-3.5. Voor veel toepassingen was de prijs een barriere. In de jaren die volgden werden prijzen significant lager (via efficiency-verbeteringen en concurrentie).

In 2026 zijn GPT-4-niveau modellen vrijwel commodity. Opvolgers (GPT-4 Turbo, GPT-4o, GPT-4.5) hebben specifiek geoptimaliseerde varianten. De prijzen zijn met 10-20x gedaald. Wat in maart 2023 baanbrekend was, is in 2026 de verwachte standaard.

Wat het betekende voor "AGI"

Een terugkerende vraag: was GPT-4 AGI? De Microsoft Research-paper suggereerde "sparks" van AGI. Sam Altman heeft in interviews gezegd dat GPT-4 niet AGI was maar significant dichterbij dan eerdere modellen.

Critici zoals Yann LeCun vonden de AGI-claim overdreven. Voor hen was GPT-4 een heel krachtig taalmodel, maar nog ver verwijderd van de algemene intelligentie die mensen bezitten — flexibiliteit om met onbekende problemen om te gaan, continu leren, abstracte representaties van de wereld.

De waarheid ligt in het midden. GPT-4 had eigenschappen die we met AGI associeerden — breed taalbegrip, redenering, kennis. Het miste andere eigenschappen — echte lichaamsbegrip, autonomie, continu leren.

Is dat AGI? Het antwoord hangt af van hoe strikt je de definitie maakt. Voor sommige definities ja. Voor andere nee. Voor beleidsdoeleinden is de discussie minder relevant dan de praktische vraag: wat kan dit en wat doet dat voor onze samenleving?

De drie jaar later

In 2026, drie jaar na GPT-4, is veel anders. Reasoning-modellen (o1, o3, Claude 3.5+, DeepSeek R1) hebben nieuwe prestatieniveaus bereikt. Multimodaliteit is rijker. Context is langer. Agents kunnen computers bedienen. De industrie is veranderd.

Maar GPT-4 blijft een referentie. Mensen zeggen vaak "voor GPT-4" en "na GPT-4" — als natuurlijke tijdlijn-marker. Net zoals mensen spraken van "voor ChatGPT" en "na ChatGPT" voor een tijdje.

Sommige dingen hebben zich anders ontwikkeld dan voorspeld in maart 2023. Geen enkelvoudige "singularity". Geen dramatische vervanging van hele beroepsgroepen. Geen AGI-doorbraak die alles transformeert in een jaar.

Maar de gestage vooruitgang is reëel. Elke generatie is significant beter dan de vorige. Toepassingen die onhaalbaar leken, worden haalbaar. Het pad dat GPT-4 aangaf — steeds capabeler AI in steeds meer domeinen — is doorgelopen.

Wat we ervan kunnen leren

Reflecterend op het GPT-4-moment, zijn er een paar lessen waard te onthouden.

Technologische sprongen zijn onvoorspelbaar. In 2021 hadden weinig mensen GPT-4's capaciteiten voorzien. AI-progressie verliep sneller dan voorspeld. Dat gebeurt vaker dan we denken, in beide richtingen (sneller dan gehoopt, trager dan beloofd).

Mensen passen zich aan. Wat in maart 2023 wonderlijk voelde, is in 2026 normaal. Ons vermogen om tech-niveaus te internaliseren is hoog. GPT-4 voelde revolutionair; Claude Opus 4.7 voelt als "het zou tijd worden". Die banalisering is zowel positief (we wennen aan meer mogelijkheden) als zorgwekkend (we erkennen mogelijk niet hoe ver we zijn gekomen).

Expert-opinies waren verdeeld en zijn dat nog steeds. Hinton vs LeCun in 2023. Nog steeds in 2026. Consensus over wat AI fundamenteel is of gaat worden, komt niet. Dat vereist dat we onder onzekerheid beslissen.

Veiligheidszorgen ontstaan tijdens, niet na de ontwikkeling. Het GPT-4-moment dwong serieuze discussies over AI-safety. Dat proces werd niet afgeschaft nadat het initiële enthousiasme afnam — het bleef doorlopen en heeft veel actieve discussies in 2026 gevormd.

De persoonlijke ervaring

Voor velen blijft het eerste serieuze contact met GPT-4 een specifieke herinnering. Ik praat regelmatig met mensen die precies weten wanneer ze voor het eerst iets indrukwekkends met GPT-4 deden — een probleem dat ze hadden en dat het oploste, een tekst die het schreef die hun verraste, een analyse die beter was dan ze zelf konden maken.

Voor sommige mensen was dit het moment dat ze zich realiseerden: dit gaat iets veranderen in mijn beroep, in mijn leven. Voor anderen was het een moment van intense nieuwsgierigheid. Voor weer anderen was het ongemakkelijk — een plotselinge confrontatie met iets onverwachts competent.

Alle drie zijn valide reacties. Technologie verandert zelden precies op de manier waarop we verwachten. Maar het GPT-4-moment was één van die momenten waarop veel mensen tegelijk voelden dat iets verschoven was. Niet naar AGI per se. Maar naar een toekomst waarin AI fundamenteel meer capabel is dan wat we hadden.

Op 14 maart 2023 begon die toekomst heel concreet. Drie jaar later leven we erin. En het verkennen, navigeren, aanpassen is nog lang niet klaar.

Veelgestelde vragen

Hoe groot was GPT-4?+

OpenAI heeft dit nooit officieel bevestigd. Schattingen op basis van lekken: ongeveer 1,76 biljoen parameters in een mixture-of-experts-architectuur, met circa 280 miljard actief per query.

Wat kon GPT-4 dat GPT-3.5 niet kon?+

Dramatische verbetering in complex redeneren, langere context-retentie, nauwkeuriger volgen van instructies, betere prestaties op specialistische kennis (juridisch, medisch, wetenschappelijk).

Was het écht een AGI-moment?+

Gedeeltelijk. Het had veel AGI-achtige eigenschappen in taal. Op andere dimensies (ruimtelijk begrip, continu leren, autonome actie) bleef het beperkt. Noemt AGI of niet hangt af van je definitie.

Hoe herinneren we ons dat moment?+

Voor veel mensen in de AI-industrie is het een meetbaar 'voor en na'. Voor 2023 was AI een interessante technologie. Na 2023, met ChatGPT en GPT-4, voelde het als een gamechanger waar hele bedrijfsstrategieën van afhingen.

Deel dit artikel
X / Twitter ↗ Facebook ↗ Mail ↗
Laten we praten

Vragen die je eigen project betreffen?

Elke call begint met luisteren. Vertel waar je staat, dan denken we samen verder.

Binnen 24u een reactie. Altijd persoonlijk.