Drie soorten AI, en waarom we meestal de verkeerde vrezen

Als iemand zegt "AI neemt banen over", welke AI bedoelt diegene dan? Die vraag wordt zelden gesteld en bijna altijd door elkaar gehaald. Dat is geen detail.

Drie silhouetten die drie verschillende soorten AI symboliseren

Wanneer het woord "AI" valt, staat er in de kop van iemands hoofd meestal een beeld. Voor de één is het ChatGPT — een tekst die terugkomt in een chatvenster. Voor de ander is het een robot die zelfstandig loopt, plant en misschien wel besluit mensen lastig te vinden. Voor een derde is het een algoritme op sociale media dat bepaalt welke video je ziet. Alledrie worden AI genoemd. Alledrie zijn iets fundamenteel anders.

In de wetenschap wordt tussen drie soorten onderscheid gemaakt. Die drie soorten verschillen niet in mate maar in aard — en het publieke gesprek haalt ze bijna continu door elkaar.

Narrow AI: wat er nu bestaat

Narrow AI, ook wel zwakke AI genoemd, doet één taak goed en alleen die taak. Een schaakprogramma speelt uitstekend schaak maar weet niets van auto's. Een vertaalalgoritme vertaalt Nederlands naar Engels en kan geen grap begrijpen. Een beeldherkenningsnetwerk ziet katten in foto's en kan geen e-mail schrijven.

Alles wat in 2026 commercieel bestaat is narrow AI. Ook ChatGPT. Ook Claude. Ook de zelfrijdende auto van Waymo. Het feit dat moderne taalmodellen over tientallen onderwerpen kunnen praten lijkt breder dan "één taak", maar technisch doen ze steeds hetzelfde ding — het voorspellen van het volgende token. Alle zichtbare breedheid komt voort uit hoe rijk die ene taak blijkt te zijn.

Dat is geen kleinering. Narrow AI is economisch, technisch en cultureel de meest ingrijpende ontwikkeling sinds het internet. De meeste "AI vervangt banen"-zorgen gaan over deze categorie. Die zorg is grotendeels terecht. Vertalen, juridische research, contentcreatie, klantenservice, basisprogrammeerwerk — dat verschuift nu al. Niet over tien jaar.

General AI: het ongrijpbare doel

AGI, of kunstmatige algemene intelligentie, zou een AI zijn die vrijwel elke cognitieve taak minstens zo goed uitvoert als een volwassen mens. Leren, redeneren, sociaal bewegen, plannen maken, abstracties toepassen in nieuwe domeinen. Niet gespecialiseerd maar algemeen.

De definitie klinkt eenduidig tot je er even aan trekt. Welke mens? In welke taak? Volgens welke criteria? Sam Altman van OpenAI heeft gezegd dat zijn bedrijf AGI bouwt. François Chollet, de AI-onderzoeker, vindt dat de huidige modellen nog miljarden keer minder intelligent zijn dan een zesjarig kind. Beide uitspraken gaan over hetzelfde systeem, GPT-4. Beide zijn verdedigbaar afhankelijk van de definitie.

AGI is dus niet een concrete technologische drempel maar een verschuivend doel. Met iedere doorbraak wordt de definitie iets strikter omdat we het vorige bewijs van intelligentie wegverklaren. Dit staat in de AI-literatuur bekend als de "AI-effect": zodra een machine iets kan wat ooit menselijk leek, wordt dat ding plotseling "gewoon een algoritme".

In 2026 is AGI nergens publiekelijk gedemonstreerd. Maar het woord verschijnt vaker in onderzoekspapers en managementspresentaties dan ooit tevoren.

Superintelligente AI: de theoretische overkant

ASI, kunstmatige superintelligentie, is het idee van een AI die mensen in vrijwel alles overtreft. Niet één vakgebied zoals schaken, maar alles: strategie, wetenschap, creativiteit, manipulatie. De filosoof Nick Bostrom populariseerde dit concept in zijn boek Superintelligence uit 2014 en schetste er scenario's bij die sommigen apocalyptisch vinden en anderen paranoïde.

Er bestaat geen ASI, er is geen prototype, er is geen consensus over of ze mogelijk is. Wat wel bestaat is een serieuze wetenschappelijke discussie over wat er zou gebeuren als ze ontstond, en hoe we ons daartegen zouden kunnen voorbereiden. Die discussie wordt niet alleen door sciencefiction-auteurs gevoerd maar door Nobelprijswinnaars zoals Geoffrey Hinton en Yoshua Bengio.

Is dat realistisch? Het antwoord is eerlijk: niemand weet het. De onzekerheidsmarge op AGI is al gigantisch. Die op ASI nog vele malen groter.

Waarom de verwarring ertoe doet

Stel je vraagt iemand of ze zich zorgen maken om AI, en ze zeggen ja. Ze bedoelt dat haar tekstschrijfbaan mogelijk verdwijnt. Haar gesprekspartner zegt dat dat nog ver weg is — hij bedoelt dat ASI waarschijnlijk eeuwen op zich laat wachten. Ze hebben net drie minuten door elkaar gepraat over verschillende technologieën.

Omgekeerd: iemand zegt dat AI overhyped is. Ze bedoelt dat ChatGPT voor haar werk minder nuttig is dan beloofd. Haar collega is het niet eens en zegt dat AI juist ondergeschat is — hij bedoelt dat AGI dichterbij is dan velen denken.

Deze verwarring is geen bijzaak. Ze is de reden dat het publieke gesprek over AI zo chaotisch verloopt. Nieuwsmedia schrijven over "AI" zonder te specificeren. Politici maken wetten die soms narrow AI raken, soms theoretische ASI, en soms iets ertussenin. Bedrijven presenteren narrow toepassingen alsof ze general zijn. En het publiek moet zelf uitzoeken welke zorg bij welke technologie hoort.

De meest nuttige vraag bij elk AI-bericht is dan ook niet "moet ik dit geloven" maar "welke AI wordt hier eigenlijk bedoeld?" — narrow, general of super. Drie verschillende technologieën, drie verschillende tijdlijnen, drie verschillende risico's, drie verschillende antwoorden.

Eén woord, drie werkelijkheden. Wie ze uit elkaar houdt, voert een heel ander gesprek dan wie ze op één hoop gooit.

Veelgestelde vragen

Is ChatGPT nu narrow of general?+

De meningen lopen uiteen. Technisch gezien is het een narrow AI omdat het getraind is op één taak — volgende-token-voorspelling — en alles wat het doet daaruit voortkomt. Functioneel vertoont het generaliserend gedrag over tientallen domeinen. Sommige onderzoekers spreken van "proto-AGI". Anderen vinden dat overdreven.

Is de angst voor een Terminator-achtig scenario realistisch?+

Voor 2030 vrijwel zeker niet. Voor 2050 is de onzekerheid groot genoeg dat serieuze onderzoekers het bespreken. De grootste risico's op korte termijn zijn niet autonome robots maar desinformatie, misbruik en macht-concentratie.

Wat bedoelen mensen met "superintelligentie"?+

AI die de mens overtreft in vrijwel elk cognitief domein — wetenschap, strategie, creativiteit, sociale manipulatie. Nick Bostrom's boek uit 2014 populariseerde het begrip. Het blijft theoretisch: we weten niet of het mogelijk is, hoe het eruit zou zien, of hoe we het zouden herkennen als het er was.

Kan een AI beide tegelijk zijn?+

Conceptueel ja. In de praktijk is het spectrum zo vaag dat de driedeling vooral communicatief nuttig is. Moderne modellen zitten ergens tussen narrow en general, en die ruimte is waar de echte discussie plaatsvindt.

Deel dit artikel
LinkedIn ↗ X / Twitter ↗ Mail ↗
Laten we praten

Vragen die je eigen project betreffen?

Elke call begint met luisteren. Vertel waar je staat, dan denken we samen verder.

Binnen 24u een reactie. Altijd persoonlijk.