Wat is een LLM eigenlijk? AI-basisbegrippen in gewone taal
Je hoort 't overal — LLM dit, GPT dat. Maar wat is 't nou écht? Geen filosofische beschouwing, wel een praktische uitleg in vijf minuten.
Je leest er niet meer onderuit. LLM, GPT, Claude, context window, tokens — termen die worden gebruikt alsof iedereen ze kent. Maar dat is niet zo. En dat is ook niet erg, want met vijf minuten uitleg begrijp je eigenlijk waar 't over gaat.
Geen diepe theorie. Geen wiskunde. Gewoon: wat zijn die dingen, en wat moet je ervan weten als je er iets mee wil?
Wat is een LLM?
LLM staat voor Large Language Model. Een AI-model dat getraind is op enorme hoeveelheden tekst — Wikipedia, boeken, websites, code, noem maar op. Miljarden woorden.
Wat 't dan doet: op basis van die tekst leert 't patronen. Welke woorden volgen typisch op welke andere woorden? Hoe zit een goede zin in elkaar? Wat is 't antwoord op een vraag? Niet omdat iemand die antwoorden heeft geprogrammeerd, maar omdat 't heeft gezien hoe mensen dat doen.
Als je 't een vraag stelt, kijkt 't naar je input, zoekt naar patronen die 't eerder heeft gezien, en genereert woord voor woord een antwoord. Het is in principe een heel erg goede autocomplete.
GPT, Claude, Gemini — wat zijn dat?
Dit zijn allemaal LLM's, maar gemaakt door verschillende bedrijven:
- GPT — van OpenAI. GPT staat voor Generative Pre-trained Transformer. ChatGPT is de chatapp die je GPT laat gebruiken.
- Claude — van Anthropic. Beetje de "zuinigere", voorzichtiger ingestelde concurrent. Wordt vaak ingezet voor zakelijk gebruik.
- Gemini — van Google. Geïntegreerd in Google-producten zoals Docs en Sheets.
- Llama — van Meta. Open source, je mag 't zelf draaien op eigen servers.
Allemaal kunnen ze min of meer hetzelfde. Nuance verschilt flink. Meer daarover in een ander artikel.
Wat is een token?
Een token is een stuk tekst waar 't model in rekent. Ruwweg: 1 token ≈ 3/4 van een woord in het Engels. In het Nederlands iets minder — onze woorden zijn vaak langer.
Concreet: "De kat zit op de mat" is ongeveer 7 tokens. Een artikel van 1000 woorden is ergens tussen 1300 en 1500 tokens.
Waarom is dit belangrijk? Omdat tokens bepalen hoe duur AI is. Alle LLM-API's rekenen per 1000 tokens input + per 1000 tokens output. Typische prijzen in 2026:
| Model | Input / 1M tokens | Output / 1M tokens |
|---|---|---|
| GPT-4.5 | € 12 | € 48 |
| Claude Opus 4.7 | € 14 | € 55 |
| Claude Sonnet 4.6 | € 3 | € 12 |
| GPT-4o mini | € 0,15 | € 0,60 |
Een heel gesprek met een chatbot kost typisch een paar centen. Dat schaalt snel op als je 'm in een product inbouwt met duizenden gebruikers.
Wat is een context window?
Het context window is hoeveel tokens het model tegelijk kan 'zien'. Dat is je prompt + alles wat er in het gesprek al is gezegd + wat het model terugstuurt. Alles bij elkaar.
Vroege modellen hadden 4.000 tokens context — ongeveer 3.000 woorden. Net genoeg voor een gesprek van een paar minuten.
In 2026 is 't compleet anders:
- GPT-4.5 — 128.000 tokens (een heel boek van 300 pagina's)
- Claude Opus 4.7 (1M) — 1.000.000 tokens (tien boeken)
- Gemini Pro — 2.000.000 tokens
Praktisch: je kan een heel codebase, een uur aan transcripts, of tientallen documenten in één prompt gooien en verwachten dat 't model er iets mee kan.
Wat is een prompt?
Een prompt is de tekst die je aan het model geeft. Dat kan een simpele vraag zijn ("Wat is de hoofdstad van Frankrijk?") of iets complexers ("Je bent een juridisch adviseur. Analyseer dit contract op drie risico's...").
De kwaliteit van je prompt bepaalt de kwaliteit van je antwoord. Meer dan veel mensen denken. Een middelmatig prompt krijgt een middelmatig antwoord. Een scherp prompt — met context, rol, voorbeelden, gewenst formaat — levert veel beter werk op.
Wat is temperature?
Een instelling die bepaalt hoe "creatief" het model mag zijn. Temperature 0 = voorspelbaar, altijd hetzelfde antwoord. Temperature 1 = meer variatie, creatiever, soms onverwacht.
Voor zakelijke toepassingen gebruik je vaak temperature 0 tot 0,3. Voor creatief schrijven 0,7 tot 1,0.
Waarom zegt iedereen "AI denkt niet"?
Omdat 't klopt. Technisch gezien doet een LLM geen redenering zoals een mens. Het voorspelt het volgende token op basis van statistische patronen.
Maar — en dit is interessant — op schaal ontstaat daaruit gedrag dat heel erg op denken lijkt. Het kan problemen analyseren, argumenten vergelijken, vragen tegenspreken. Emergent behavior noemen ze dat. Niemand weet precies hoe 't werkt, ook de bouwers niet.
Het praktische gevolg: het is een geweldig hulpmiddel, maar je moet altijd verifiëren. Het heeft geen echt begrip van waar het over praat. Het kan zelfverzekerd onzin zeggen (daar schrijf ik een apart artikel over).
Waar kun je nu mee aan de slag?
Als je nog niet hebt geëxperimenteerd: open eens claude.ai of chatgpt.com. Beide hebben een gratis versie die 't grootste deel laat zien.
Probeer niet één vraag. Probeer een half uur lang verschillende dingen:
- Laat 't een lastige e-mail schrijven
- Vraag om een samenvatting van een lang document
- Laat 't hardop denken over een beslissing die je moet maken
- Vraag om feedback op iets wat je zelf hebt geschreven
Na een half uur heb je een veel beter gevoel voor wat 't kan en wat niet. En dat is waardevoller dan tien artikelen lezen.
Veelgestelde vragen
Is ChatGPT hetzelfde als GPT?+
Bijna. GPT is het model, ChatGPT is de app waarin je GPT gebruikt. Je kunt GPT ook via API gebruiken, dan gebruik je hetzelfde model maar zonder de chat-interface.
Welke LLM is het beste?+
Geen absolute winnaar. Claude is vaak beter in volgen van strikte instructies en voorzichtiger met verzinnen. GPT heeft het grootste ecosysteem. Gemini is sterk in multi-modal (tekst + afbeelding). Voor de meeste zakelijke taken in 2026 zijn de verschillen klein — meer over dat in een ander artikel.
Moet ik betalen om AI te gebruiken?+
Voor basisgebruik: nee. ChatGPT, Claude, Gemini hebben allemaal gratis versies. Betalen (€ 15–20/mnd) geeft toegang tot de nieuwste modellen en meer berichten. Voor zakelijk gebruik via API betaal je per gebruik — meestal betaalbaar tot je volume krijgt.
Kan AI leren van mijn gesprekken?+
Standaard bij consumer-tools: soms. Bij zakelijke versies (ChatGPT Enterprise, Claude Teams): nee, gesprekken worden niet gebruikt voor training. Bij API-gebruik: nooit, tenzij je daar expliciet toestemming voor geeft.
Kan ik een LLM zelf hosten?+
Ja. Open-source modellen zoals Llama 3, Mistral of DeepSeek kun je op je eigen servers draaien. Heb je wel GPUs voor nodig en tech-kennis. Voor de meeste bedrijven is een gehoste API makkelijker en goedkoper.