Hallucinations: waarom AI soms onzin verzint (en hoe je 't voorkomt)

ChatGPT geeft je zelfverzekerd een antwoord. Het klopt niet. Welkom bij hallucinations — AI's grootste zwakte en hoe je ermee omgaat.

Wazige abstracte tekst als visualisatie van onzekerheid

Je vraagt ChatGPT naar een boek. Het vertelt je uitgebreid over 't — auteur, verschijningsjaar, thema's. Alleen: 't boek bestaat niet. Verzonnen.

Welkom bij hallucinations. De grootste zwakte van LLM's, en tegelijk de meest misbegrepen.

Wat is een hallucination?

Een hallucination is een AI-output die niet klopt, maar wel zelfverzekerd wordt gepresenteerd. Het model weet niet dat 't fout is. Het weet überhaupt niet wat 'fout' of 'juist' betekent in die zin.

Types:

  • Feitelijk fout — "Amsterdam heeft 3 miljoen inwoners" (is 920.000)
  • Verzonnen bron — citeert een paper die niet bestaat
  • Verzonnen detail — boek / persoon / tool bestaat niet
  • Verkeerde code — roept een functie aan die niet in die library zit
  • Inconsistent — zegt in alinea 1 X en in alinea 3 niet-X

Waarom gebeurt dit?

Terug naar de basis: een LLM voorspelt 't volgende woord op basis van patronen. Het heeft geen intern "ik weet dit wel / ik weet dit niet" signaal zoals mensen dat hebben.

Als je vraagt "wanneer is Shakespeare geboren?", ziet 't model duizenden teksten met Shakespeare en 1564. Output: "1564". Correct en betrouwbaar.

Als je vraagt "wanneer is [obscure persoon] geboren?", en 't model heeft zelden over die persoon gezien, dan genereert 't alsnog een jaartal. Dat lijkt op de jaartallen die 't wel vaak heeft gezien. Zelfverzekerd verkeerd.

Het is geen bug. Het is inherent aan hoe LLMs werken. Je kan 't verminderen, niet elimineren.

Waar hallucineren LLMs het meest?

  1. Specifieke cijfers, data, percentages — vooral als 't niet algemene kennis is
  2. Citaten en referenties — waarschuwing: in academische en journalistieke context veel valse citaties
  3. Recent nieuws — model kent alleen wat tot z'n training-cutoff gebeurde
  4. Obscure onderwerpen — niche, gespecialiseerd, lokaal
  5. Code met nieuwe API's — als library na training is geüpdatet
  6. Bedrijfsspecifieke info — jouw producten, prijzen, beleid

Hoe voorkom je hallucinations?

1. RAG (Retrieval-Augmented Generation)

Meest effectieve oplossing. Laat 't model antwoorden baseren op documenten die je hem geeft. Niet op z'n getraind-geheugen. Zie dit artikel voor uitleg.

2. Expliciete "weet niet"-toestemming

Instructie die werkt: "Als je 't antwoord niet zeker weet, zeg dat expliciet. Verzin niks." Claude volgt dit strikter dan GPT, maar beide reageren er op.

3. Lage temperature

Temperature = hoe "creatief" 't model mag zijn. Voor feitelijke taken: temperature 0 of 0.1. Dit vermindert variatie en daarmee hallucinaties.

4. Vraag om bronnen

"Geef bij elk feit een bron of geef aan dat 't onbevestigd is." Dwingt 't model om expliciet te zijn. Met RAG werkt dit uitstekend. Zonder RAG is voorzichtigheid geboden — bronnen kunnen zelf verzonnen zijn.

5. Zelf-verificatie

"Na je antwoord: evalueer welke beweringen je 100% zeker weet en welke onzeker zijn. Markeer de onzekere." AI kan z'n eigen onzekerheid verrassend goed inschatten als je 't vraagt.

6. Meerdere pogingen

Voor kritische feiten: vraag 3 keer. Als 't model consistent hetzelfde zegt, is 't waarschijnlijker correct. Als antwoorden variëren, is 't waarschijnlijk een gok.

7. Externe verificatie

Voor belangrijke beslissingen: altijd verifiëren via een tweede bron. Nooit blind vertrouwen op één AI-output. Dit is basishygiëne, geen overdreven voorzichtigheid.

Waar moet je vooral oppassen?

Juridische en medische informatie

AI kan precedenten citeren die niet bestaan of behandelingen aanbevelen die onjuist zijn. Bijzonder risico. Nooit gebruiken zonder expert-check.

Historische feiten

Datums, gebeurtenissen, personen — frequent misaangegeven, vooral bij minder bekende onderwerpen.

Citaties voor artikelen

Bizar vaak verzonnen. Academische papers, boeken, URL's die er niet zijn. Altijd handmatig verifiëren.

Statistieken en cijfers

"Uit onderzoek blijkt dat 73%..." — dat onderzoek bestaat waarschijnlijk niet. Nooit opnemen zonder bron-check.

Code met obscure libraries

AI kan functies, parameters, methodes verzinnen die er niet zijn. Vooral bij nieuwere of minder populaire libraries. Draai de code altijd voordat je 'm commit.

Wanneer hallucinations minder erg zijn

  • Brainstormen — je wil variatie, niet precisie
  • Creatief schrijven — 'feitelijke fouten' in fictie zijn vrijheidsmarges
  • Eerste drafts — je gaat 't toch reviseren
  • Ideeën genereren — zelfs foute ideeën kunnen nuttig zijn

Zelfrespect voor AI

Hallucinations zijn geen reden om AI niet te gebruiken. Ze zijn een reden om AI verstandig te gebruiken:

  1. Weet welke taken gevoelig zijn voor hallucinations
  2. Bouw verificatie-stappen in voor kritische outputs
  3. Gebruik de juiste tools (RAG, grounding, lage temperature)
  4. Accepteer dat 100% betrouwbaarheid niet bestaat

Hetzelfde geldt eigenlijk voor menselijke medewerkers. We verwachten niet 100% accuraatheid van mensen — we bouwen processen om fouten op te vangen. Voor AI: zelfde principe.

Veelgestelde vragen

Kan AI nooit 100% betrouwbaar worden?+

Huidige architectuur (transformer-based LLMs): nee. Er komt wel onderzoek naar betere 'grounding' en zelf-verificatie. In 2026 is 't probleem kleiner dan in 2022, maar nog steeds aanwezig. Volgende grote breakthroughs zijn nog niet voorspeld.

Welk model hallucineert 't minst?+

Claude (Anthropic) is consistent 't voorzichtigst en hallucineert 't minst. GPT-4.5 is beter geworden dan GPT-4. Gemini zit tussen de twee in. Voor kritische toepassingen: Claude + RAG + verificatie.

Herkent AI zelf wanneer 't gokt?+

Soms. Als je expliciet vraagt 'hoe zeker ben je van dit antwoord?' geeft 't een redelijke inschatting. Standaard presenteert 't alles zelfverzekerd. Onderliggende 'weet-niet'-signalen zijn beperkt.

Hoe weet ik of een AI-output een hallucination is?+

Vaak pas na verificatie. Red flags: heel specifieke getallen zonder bron, citaten die je niet kunt terugvinden, feiten over niche-onderwerpen, personen waar weinig over bekend is. Gezond wantrouwen houden.

Zijn er AI's gemaakt voor feitelijke correctheid?+

Perplexity.ai combineert search met LLM — claimt minder hallucinaties omdat 't altijd bronnen ophaalt. Werkt in de praktijk redelijk goed voor feitelijke queries. Voor meer creatieve taken: terug naar Claude/GPT met RAG.

Deel dit artikel
X / Twitter ↗ Facebook ↗ Mail ↗
Laten we praten

Vragen die je eigen project betreffen?

Elke call begint met luisteren. Vertel waar je staat, dan denken we samen verder.

Binnen 24u een reactie. Altijd persoonlijk.