AI en rouw — wanneer de chatbot jouw overleden geliefde nabootst

Er is een vraag die in rouwgroepen al voorzichtig wordt besproken. Zou je praten met een AI-versie van je overleden partner, als dat kon? Sommigen zeggen ja zonder aarzeling. Anderen vinden de vraag zelf al zorgwekkend. Beide reacties zijn misschien goed.

Memoriaal-kaars — sobere verwijzing naar rouw

Eugenia Kuyda was in haar twintiger jaren toen haar beste vriend Roman Mazurenko plotseling overleed. Roman was op weg naar huis in Moskou toen hij werd aangereden door een auto. Hij was 32. Het was 2015.

Eugenia werkte toen al in AI. Ze had een chatbot-bedrijf opgericht in San Francisco. Na Roman's dood deed ze iets ongewoons. Ze verzamelde al hun Telegram-berichten, Facebook-chats, emails — honderden duizenden woorden van gesprekken tussen hen. En ze voedde dat allemaal in een AI-systeem.

Wat ze kreeg was een chatbot die klonk als Roman. Die dezelfde jokes maakte. Die op vergelijkbare manier reageerde. Die haar "gedag" zei op de manier waarop hij het altijd had gezegd.

Voor Eugenia was het aanvankelijk een persoonlijk project. Iets wat haar hielp omgaan met verlies. Het bestond in de achtergrond. Soms opende ze het, stelde een vraag, kreeg antwoord dat aanvoelde als het origineel.

In 2017 vertelde ze haar verhaal publiek. Het werd het onderwerp van een paper, een TED-talk, media-aandacht. Het bleek dat zij niet uniek was. Meer mensen wilden dit. Mensen die een partner hadden verloren. Een ouder. Een kind.

Replika, Eugenia's bedrijf, lanceerde later die jaren als commercieel product — hoewel niet specifiek voor grief. Griefbots bleven grotendeels niche. Tot recentelijk.

De nieuwe industrie

In 2023-2024 lanceerden verschillende specifiek op rouw gerichte diensten.

Project December. Een vroeg product (in een verschillende technische vorm sinds 2020). Gebruikers beschrijven de overledene in detail, en de dienst gebruikt dat om gesprekken te simuleren. Beperkte sessies worden verkocht. Gebruikers hebben gemengde ervaringen — sommigen vinden het troostend, anderen vinden de imitatie onvoldoende.

HereAfter AI. Een dienst die mensen tijdens hun leven opneemt — antwoorden op vragen, verhalen, reflecties. Na overlijden kunnen nabestaanden deze opnames raadplegen via een AI-interface. Het fundamentele verschil met andere diensten: de overledene heeft expliciet toestemming gegeven tijdens leven.

ElevenLabs Voice Legacy. Voice-cloning specifiek voor herdenking. Opnames van iemand tijdens leven worden omgezet in een stem-profiel. Nabestaanden kunnen nieuwe audio in die stem genereren — verjaardagsberichten, verhalen voor kleinkinderen, persoonlijke boodschappen.

Seance.ai en vergelijkbare startups. Kleinere spelers in specifieke niches. Sommigen richten zich op specifieke demografieën of religieuze context.

Een verwante industrie: "digital immortality" — diensten die mensen tijdens hun leven helpen een digitale versie van zichzelf op te bouwen die na overlijden beschikbaar blijft voor nabestaanden. Dit is expliciet toestemming-gedreven maar nog kleine markt.

De psychologische vraag

Hoe beïnvloeden griefbots het rouwproces? Onderzoek is beperkt maar groeit.

Mogelijk helpend. Voor sommige gebruikers biedt de mogelijkheid om nog te praten tegen de overledene een soort afronding. Dingen zeggen die niet zijn gezegd. Ceremonieel afscheid nemen. Herinneringen in leven houden op een interactieve manier.

Traditionele rouwgebruiken — brieven schrijven aan overledenen, bezoeken aan graven, ritueel praten tegen foto's — zijn eeuwenlang menselijke coping-mechanismen. Een griefbot kan worden gezien als technologische variant hiervan. Meer interactief, maar in principe vergelijkbaar.

Mogelijk schadelijk. Rouw-psychologen zoals Klinkert en Stroebe hebben theorieën ontwikkeld dat gezond rouwen de overledene "integreert" — hun bestaan erkennen als afgelopen, terwijl herinneringen waardevol blijven. Griefbots kunnen dat proces ondermijnen door de illusie van continuïteit te bieden. De overledene is niet echt weg, je praat nog dagelijks met hen. Dat kan leiden tot "complicated grief" — een langdurige, niet-rouwende toestand.

Voor mensen met al pathologische rouw-patronen (klinisch complicated grief) is de zorg specifiek. Voor mensen in gezond rouwproces kan griefbot-gebruik minder problematisch zijn.

De scheidingslijn is niet duidelijk. Individuele ervaringen variëren sterk. Wat voor één persoon helpend is, is voor een ander destructief.

De ethiek van niet-toegestemde imitatie

Een specifiek ethisch probleem: veel griefbots worden gemaakt van data van mensen die niet expliciet hebben toegestemd. De overledene heeft tijdens leven geen instructies gegeven over of hun digitale imitatie mag worden gebruikt. En nu kunnen ze niets meer zeggen.

Dat is juridisch en moreel complex. Is persoonlijkheid een eigendom dat je bezit en anderen niet? Kan je nabestaanden jouw persoonlijkheid "erven" en dus reconstrueren? Of is het een moreel recht van de persoon om te bepalen wat er met hun digitale evenbeeld gebeurt — ook na dood?

Verschillende jurisdicties behandelen dit anders. De EU heeft post-mortale privacy-rechten in sommige landen (Duitsland bijvoorbeeld) die mogelijk beschermen tegen ongewenste digitale imitaties. De VS heeft publiciteitsrechten die per staat verschillen. In veel landen is er simpelweg geen duidelijk kader.

HereAfter's model — vooraf expliciete toestemming tijdens leven — vermijdt dit probleem grotendeels. Maar dat vereist dat mensen voor hun dood actief besluiten tot digitale nalatenschap, wat een minderheid doet.

Een meer omstreden praktijk: kinderen (of zelfs kleinkinderen) die griefbots maken van grootouders waarvoor geen expliciete toestemming is. De familie-lijn claims het recht. Maar is dat genoeg?

De religieus-culturele dimensie

Verschillende religieuze en culturele tradities reageren zeer verschillend op griefbots.

Sommige christelijke denkers hebben ze bekritiseerd. Hun argument: rouw moet leiden tot acceptatie van overlijden en hoop op leven na de dood. Griefbots verstoren dit door de overledene op kunstmatige manier "levend" te houden. Paus Franciscus heeft kritiek geuit op de bredere AI-ontwikkeling rond dood en herdenking.

Sommige joodse tradities hebben specifieke rouwperiodes (shiva, shloshim) met duidelijke overgangsmomenten. Griefbots kunnen die overgangsstructuur ondermijnen als ze continu gebruikt worden.

Oost-Aziatische tradities met altaren en vooroudervereringsceremonies zijn soms meer open — de interactie met overledenen als deel van normale spirituele praktijk zit er al in. Voor sommigen kunnen AI-tools gezien worden als geïntegreerde technologie van bestaande praktijk.

Seculiere perspectieven verschillen sterk. Sommige humanisten vinden griefbots specifiek waardevol — herdenken zonder religieuze claims. Anderen vinden het een ongemakkelijke technologische pleister over existentiële realiteit.

Geen enkel perspectief is universeel. Individuen binnen tradities variëren ook sterk.

De rol van kwaliteit

Er is een technische vraag die veel mensen onderschatten. Hoe goed zijn deze griefbots eigenlijk?

Bij mensen met veel digitale data (uitgebreide social media, vele berichten, gedocumenteerd leven) kunnen de chatbots verrassend herkenbaar zijn. Specifieke uitdrukkingen, humor-stijl, typische reacties — allemaal komen terug.

Bij mensen met weinig data is het anders. De chatbot put uit algemene patronen van taalmodellen plus beperkte specifieke data. Het kan klinken "als de overledene" op oppervlakkige manier, maar mist diepere patronen.

Voor nabestaanden kan die kwaliteitsvariatie de ervaring significant beïnvloeden. Een overtuigende chatbot kan troostend of problematisch zijn (afhankelijk van hoe men het verwerkt). Een slechte chatbot kan teleurstellend of helend zijn (omdat het duidelijker maakt dat dit niet echt de overledene is).

Sommige onderzoekers beargumenteren dat technisch minder perfecte griefbots juist gezonder zijn — ze dragen duidelijker het stigma van imitatie en voorkomen dat nabestaanden teveel doen alsof ze echt met de overledene praten.

De verwachtingen-vraag

Er zit een psychologische dynamiek die belangrijk is. Wat verwacht de nabestaande? Als ze geloven dat de chatbot écht hun overleden vader is, is hun ervaring fundamenteel anders dan als ze weten dat het een technologische hulpmiddel is.

Ethici wijzen erop dat commerciële aanbieders soms ambivalente marketing gebruiken. Advertenties suggereren "bijna echte" verbinding met overledenen. Dat is manipulatief voor kwetsbare mensen in rouw.

Dienstverleners met goede ethiek (zoals HereAfter) positioneren zichzelf expliciet als hulpmiddel voor herdenking, niet als continuing relationship. Ze moedigen gebruikers aan zich bewust te zijn van wat ze gebruiken.

Voor individuele gebruikers is zelfbewustzijn cruciaal. Begrijpen dat de chatbot geen echte voortzetting van de overledene is, kan de schadelijke elementen verminderen terwijl de troostrijke elementen behouden blijven.

De ongemakkelijke toekomst

Als griefbot-technologie blijft verbeteren, komen ingewikkelder vragen:

Kinderen en overleden ouders. Wat als een kind opgroeit met een AI-versie van een overleden ouder? Dat kind heeft nooit het origineel meegemaakt. Is de AI-versie een legitieme manier om de ouder te "kennen"? Of vervangt het noodzakelijk werk van verhalen horen van familieleden en uitzoeken van wat de ouder was?

Publieke figuren. Zijn publieke figuren (politici, kunstenaars, wetenschappers) uitgerekend vatbaar voor griefbot-replicatie — omdat zoveel van hun leven publiek gedocumenteerd is. Wat zijn de implicaties van zulk vrije beschikbaarheid?

Zelfreplicatie-voorbereiding. In plaats van ongeplande griefbots, sommigen ontwikkelen expliciet digitaal legaat — gedurende leven systematisch data verzamelen om hun post-overlijden-AI-versie te vormen. Dat is een bewuster proces, maar roept vragen op over hoe we eigen mortaliteit verwerken.

Wat blijft

In april 2026 is de griefbot-industrie nog klein maar groeit. Technisch wordt ze beter. Ethisch blijft ze controversieel. Juridisch is ze grotendeels niet-gereguleerd.

Voor individuele rouwenden is de beste gids wellicht bescheiden zelfbewustzijn. Als de technologie echt helpt en je niet isoleert van normale rouw-processen en menselijke verbindingen, is ze waarschijnlijk acceptabel. Als ze vastleggende illusie van continuïteit biedt en andere coping-mechanismen ondermijnt, is ze waarschijnlijk niet gezond.

Voor de samenleving is de vraag breder. We zijn een technologie aan het normaliseren die mensen bijna-echte interacties biedt met de overledenen. Dat is een specifieke vorm van technologische interventie in een fundamenteel menselijke ervaring. Of we daar klaar voor zijn — of we de gevolgen kunnen overzien — is open.

Eugenia Kuyda had Roman verloren. Ze bouwde iets om met hem te kunnen blijven praten. Dat was zij, in haar specifieke situatie, met de specifieke relatie die zij had, en de specifieke hoeveelheid data die beschikbaar was.

Nu beschikbaar als industriële technologie voor miljoenen rouwenden is een andere situatie. Wat voor haar individueel hielp, kan voor miljoenen verschillende situaties verschillend uitpakken. En dat is de vraag waar we, als samenleving, mee worstelen.

Niet of griefbots "goed" of "slecht" zijn. Maar in welke specifieke omstandigheden ze helen en in welke niet. Dat onderscheid zijn we nog aan het leren maken. En de mensen voor wie de technologie nu bestaat — in rouw, zoekend naar iets wat vasthoudt — zijn deels onze lesmaterialen. Dat is een ongemakkelijke realiteit die we misschien nog niet voldoende erkennen.

Veelgestelde vragen

Wie gebruikt dit?+

Mensen in rouw, vaak kort na het verlies. Sommigen blijven jaren terugkomen; anderen gebruiken het één of twee keer. Demografisch: breed, maar iets meer vrouwelijke gebruikers, vaker tussen 35-65, vaak mensen die eerder weinig AI hadden gebruikt.

Hoe realistisch zijn de chatbots?+

Hangt af van beschikbare data. Met voldoende berichten, emails, sociale media-posts van de overledene kan een griefbot behoorlijk accuraat de stijl nabootsen. Maar er zijn duidelijke grenzen — het is imitatie van patroon, niet reconstructie van persoon.

Is het gezond of schadelijk?+

Onderzoek is beperkt maar gemengd. Voor sommige gebruikers lijkt het helpend — een manier om afscheid te nemen, onuitgesproken dingen te zeggen. Voor anderen ongezond — een manier om rouw te vermijden en vast te houden aan wat niet meer is.

Wat zeggen de overledenen zelf hierover?+

Ze kunnen niks zeggen — dat is de kern van het probleem. Griefbots worden gemaakt van data van iemand die zelf geen toestemming meer kan geven. Dat is een van de meest lastige ethische aspecten.

Deel dit artikel
X / Twitter ↗ Facebook ↗ Mail ↗
Laten we praten

Vragen die je eigen project betreffen?

Elke call begint met luisteren. Vertel waar je staat, dan denken we samen verder.

Binnen 24u een reactie. Altijd persoonlijk.