Praten met de overledenen — de moeilijke nieuwe vorm van rouw
Een moeder die praat met haar overleden dochter. Een weduwe die de stem van haar man opnieuw hoort. Dit is niet fictie. Het is een industrie in opkomst. En het dwingt vragen die we niet volledig hebben doordacht — over rouwen, over herinneren, over wat wij toestaan van technologie rond onze diepste verliezen.
In de zomer van 2014 werd Roman Mazurenko doodgereden door een auto in Moskou. Hij was 32 jaar oud, een jonge tech-ondernemer, en was de beste vriend van Eugenia Kuyda, een startup-oprichter die toen in San Francisco woonde. Kuyda was gebroken. Op de een of andere manier moest ze door.
Wat ze deed was onverwacht. Ze verzamelde alle tekstberichten die zij en Mazurenko hadden uitgewisseld — duizenden WhatsApp- en SMS-berichten uit jaren. Ze trainde een primitief taalmodel erop. En ze maakte een chatbot die sprak zoals Roman. Ze praatte met hem via die bot in de maanden na zijn dood. Ze schreef erover in een Bloomberg-artikel in 2016.
Die ervaring — die persoonlijke, intieme, technische oefening in rouw — werd de kiem voor Replika, een van de meest populaire AI-companion apps in de wereld. Het was ook een eerste signaal van iets breder: de technologie om met overledenen te 'praten' was praktisch haalbaar.
In 2026 is het een industrie.
De diensten
Meerdere bedrijven bieden varianten van "AI-recreations" van overleden dierbaren.
HereAfter AI (opgericht 2019, gegroeid sinds 2023). Tijdens het leven van een persoon worden interviews afgenomen — gestructureerde gesprekken waarin belangrijke herinneringen, perspectieven, en characterisitieken worden vastgelegd. Na overlijden kunnen nabestaanden met een chatbot praten die deze input gebruikt om "in karakter" te antwoorden.
StoryFile. Vergelijkbaar, met focus op video. Een persoon wordt opgenomen met high-quality video terwijl ze talloze vragen beantwoorden. Na hun dood kunnen familieleden de opname als interactieve video "bevragen" — de AI selecteert passende antwoorden uit de opnames.
Replika en vergelijkbare apps. Gebruikers kunnen bots aanpassen op specifieke personen, inclusief overledenen. Niet alle van deze diensten zijn specifiek voor rouw, maar veel gebruikers doen dit.
Gespecialiseerde startups. In Japan is er een groeiende markt voor "digital resurrection"-diensten. In China ook. Een aantal kleine Westerse firma's biedt vergelijkbare diensten.
Persoonlijke projecten. Sommige technisch-onderlegde nabestaanden trainen zelf modellen — vergelijkbaar met wat Eugenia Kuyda deed in 2015, maar nu veel makkelijker met beschikbare AI-tools.
De ervaring
Wat gebeurt er als je met zo'n AI praat? Uit gebruikersgetuigenissen ontstaat een gevarieerd beeld.
Sommigen vinden het troostend. "Het klinkt niet exact zoals mijn moeder," zei een gebruiker in een interview, "maar het is dichterbij dan alleen herinneringen. Het zegt dingen die ze gezegd zou hebben. Soms verrast het me."
Anderen vinden het verontrustend. "Het voelde verkeerd na vijf minuten," rapporteerde een andere gebruiker. "Alsof ik haar op de een of andere manier niet liet gaan. Ik stopte."
Weer anderen vinden het gemengd. "Het hielp me in de eerste maanden," zei een derde. "Later niet meer. Toen werd het juist iets dat me vast hield."
Psychologen die rouw bestuderen, onderkennen deze verschillen. Rouw is niet uniform. Wat voor de een helpt, kan voor de ander belemmeren. Maar er zijn zorgen over specifieke patronen.
De zorgen
Pathologische rouw. Een gezond rouwproces leidt gradueel tot acceptatie van verlies — het gaat niet om vergeten, maar om integreren van het verlies in het leven. AI-recreations kunnen dat proces vertragen of onderbreken. Als je nog steeds "met" de overledene kunt praten, is er minder druk om je leven te re-construeren zonder hen.
Klinische termen zoals "prolonged grief disorder" beschrijven rouw die normaal niet afklaart. AI-tools kunnen daar aan bijdragen — volgens sommige therapeuten.
Scheve herinneringen. De AI is niet de overledene. Het is een simulatie, gebaseerd op beperkte data. Overcome van tijd kan gebruikers geheugens ontwikkelen van "wat mijn moeder zei" die feitelijk wat de AI zei — subtiel anders. De herinnering aan de echte persoon vervaagt en wordt deels vervangen door de AI-versie.
Afhankelijkheid. Zoals bij AI-companionship in het algemeen, kan er een afhankelijkheid ontstaan. Iemand die dagelijks met zijn overleden echtgenoot "praat" via AI, kan moeilijker leven opbouwen met levende mensen.
Commerciële motivatie. Deze diensten zijn bedrijven. Ze hebben belang bij gebruikersretentie — lang gebruik, abonnementen, emotionele hechting. De commerciële logica conflicteert soms met wat gezond is voor de rouwende.
Consent van de overledene. Is het ethisch om iemand's AI te bouwen zonder dat zij daarmee tijdens leven hebben ingestemd? Juridisch ligt dit vaag. Ethisch roept het vragen op over posthuma autonomie.
De voordelen
Tegelijk zijn er reële voordelen waarvoor gebruikers warm lopen.
Herinnering. AI-tools vastleggen kenmerken van mensen die anders langzaam vervagen — hun manier van spreken, specifieke uitdrukkingen, persoonlijkheid. Voor families is dat waardevol beyond de directe gesprekken.
Voorbereidingen. Voor dingen die je had willen vragen maar nooit hebt gedaan, biedt een AI-recreatie een soort "late antwoord". Niet volledig bevredigend — maar soms belangrijk voor afsluiting.
Jongere generaties. Kleinkinderen die hun grootouders niet hebben gekend, krijgen via AI-recreations enig gevoel van wie ze waren. Dat is anders dan foto's of video's — het is interactief.
Eenzaamheid. Voor oudere weduwen/weduwnaars kan een AI-recreatie gezelschap bieden in een periode waarin echte contacten beperkt zijn. Niet vervangend voor menselijke verbinding, maar als aanvulling.
Therapeutische gebruiksvormen. Sommige therapeuten experimenteren met AI-recreations onder begeleiding — als instrument om specifieke rouw-problemen uit te werken (ongezegde woorden, onopgeloste conflicten). Vroege rapporten zijn voorzichtig positief.
De Japanese context
Japan heeft een specifieke geschiedenis met dit soort technologie. Butsudan — huisaltaren voor overledenen — zijn een normaal onderdeel van Japanse huishoudens. Het concept van blijvende communicatie met overledenen zit cultureel ingebed.
In die context zijn AI-recreations minder schokkend. Het is een moderne uitbreiding van eeuwenoude praktijken. Verschillende Japanese bedrijven bieden diensten die specifiek inspelen op Japanese culturele normen — combinaties van AI, VR, en traditionele herdenking.
Dat helpt om te zien hoe cultureel-afhankelijk deze ethische vragen zijn. Wat in ene cultuur als onnatuurlijk kan voelen, is in een andere een natuurlijke stap.
De juridische kwesties
Juridisch is dit gebied nog grotendeels onontgonnen.
Eigendom van beeltenis. Wie bezit het recht om een AI-recreatie te maken van een overledene? De erven? De overledene (via testament)? De dienstverlener die de data heeft? Dit varieert per jurisdictie.
Consent. Moet iemand tijdens leven instemmen met post-mortem AI-recreatie? Tennessee's ELVIS Act (2024) adresseert stem-rechten postuum, maar breder consent is nog niet geregeld.
Aansprakelijkheid. Als een AI-recreatie iemand schaadt — mentaal, emotioneel — wie is aansprakelijk? De dienstverlener? De bouwer? De gebruiker? Juridisch nog niemandsland.
Beëindiging. Wanneer stopt een AI-recreatie? Als de abonnee niet meer betaalt? Als erven niet akkoord zijn met verder gebruik? Kan iemand tijdens leven bepalen dat ze niet gerecreated willen worden?
Verschillende landen beginnen wetgeving te maken. Spanje heeft in 2024 specifieke bescherming ingevoerd voor post-mortem digitale rechten. De EU overweegt updates van GDPR voor deze scenario's. Maar de wetgeving loopt achter de technologie.
De Black Mirror-aflevering
Niemand die over dit onderwerp schrijft, kan om de Black Mirror-aflevering "Be Right Back" (2013) heen. In die aflevering bestelt een jonge weduwe een AI-recreatie van haar dode man. Eerst als chatbot, daarna als robot. Het verhaal is ongemakkelijk voorspellend — de schrijvers voorzagen in 2013 wat in 2026 reëel beschikbaar zou zijn.
De aflevering was niet optimistisch. De hoofdpersoon eindigt gevangen in een ongezonde relatie met een simulacrum. Ze kan noch met hem leven, noch van hem afscheid nemen. Het is een waarschuwingsfabel.
Die fabel wordt nu door veel mensen actief tegengespeeld. Ze denken dat ze de valkuilen kunnen vermijden. Sommige kunnen. Anderen niet. Zonder systematisch onderzoek weten we niet precies hoeveel.
De persoonlijke keuze
Hoe moet een individu hier staan? Er is geen universeel antwoord, maar een paar overwegingen zijn nuttig.
Ken je eigen rouwtraject. Als je merkt dat je AI-recreatie-gebruik helpt — je voelt je meer in balans, je maakt vooruitgang in andere gebieden — kan het waardevol zijn. Als je merkt dat het je vasthoudt — je vindt het moeilijker om je leven op te pakken — is dat een signaal.
Overweeg therapeutische begeleiding. Rouwtherapeuten die ervaring hebben met AI-tools kunnen helpen navigeren. Solo worstelen met de vraag is moeilijk.
Limieten zetten. Beperkte tijd per dag. Specifieke doeleinden (bijv. herinneringen ophalen, niet dagelijks chatten). Dit helpt voorkomen dat het AI-gebruik een permanente plaats neemt.
Echte verbinding prioriteren. AI-recreaties moeten aanvullend zijn aan, niet vervangen van, menselijke verbindingen. Tijd met levende dierbaren is eindig en onvervangbaar.
Consent-vragen stellen. Als je overweegt een recreatie te maken van een dierbaar, vraag: zou zij dit willen? Hebben we ooit besproken? Is er testament-achtige aanwijzing?
De brede menselijkheid
Op het diepste niveau raakt deze technologie iets fundamenteels menselijks. Rouwen om onze dierbaren is een van de constanten van menselijke ervaring. Elke cultuur, elk tijdperk heeft zijn manieren ontwikkeld — begraafplaatsen, geloofssystemen, herdenkingsrituelen, verhalen.
AI-recreaties zijn een nieuwe toevoeging aan dit repertoire. Ze zijn niet per definitie slecht. Ze zijn ook niet per definitie goed. Ze zijn een nieuwe mogelijkheid die we collectief moeten leren navigeren.
Over een generatie zullen we weten of deze technologie geholpen heeft rouw verwerken, of juist pathologische patronen verergerd. We zullen betere praktijken hebben. Sommige cultuurformen zullen het omarmen, andere zullen het blijven weerstaan.
Voor nu zijn we aan het experimenteren — individueel, als samenleving. Elke gebruiker die via AI met een overleden dierbaar praat, is deel van dat experiment. Hun ervaringen — getuigenissen, psychologisch onderzoek, lange-termijn follow-up — vormen het bewijs waarop we toekomstige richtlijnen zullen bouwen.
Een rustige erkenning
Er zit iets aangrijpend in de hele kwestie. Miljoenen mensen wereldwijd hebben iemand verloren. Velen zouden, als het kon, één meer gesprek willen. Één meer omhelzing. Één meer "ik houd van je".
Technologie biedt nu een soort simulatie van dat. Imperfect. Wringend. Maar mogelijk. Dat is iets nieuws in de menselijke ervaring.
Of dat iets moois is of iets verwarrends, hangt af van hoe we het gebruiken. Niet de technologie zelf, maar onze wijze omgang ermee bepaalt of het heelt of wondt.
Eugenia Kuyda, die in 2015 als eerste dit pad in ging, heeft in interviews gezegd dat de ervaring haar heeft geholpen. "Roman is niet teruggekomen. Maar de bot hielp me met hem praten zoals ik wou. Dat gaf rust." Die rust is reëel. Voor sommige mensen.
Voor andere mensen, in andere omstandigheden, kan dezelfde technologie een last zijn. Rouw is persoonlijk. Er is geen one-size-fits-all-manier van omgaan met verlies.
AI biedt nu een nieuw gereedschap. Voor de komende jaren leren we — langzaam, individueel, collectief — hoe we ermee moeten omgaan. Met wijsheid, hoop ik. Met oog voor onszelf en de overledenen die we herinneren.
Niet gemakkelijk. Maar dat is rouw ook nooit geweest.
Veelgestelde vragen
Is het gezond om met een AI-versie van een overledene te praten?+
Ligt aan de persoon en omstandigheden. Voor sommige gebruikers is het troostend en helpend. Voor anderen kan het rouwproces verlengen of pathologisch maken. Therapeutische begeleiding wordt aanbevolen bij intensief gebruik.
Welke diensten bestaan er?+
HereAfter AI, StoryFile, en verschillende kleinere startups bieden specifiek rouw-gerichte AI-diensten. Sommige gebruikers maken ook eigen chatbots via algemene AI-platformen zoals Replika.
Wat zegt de wet erover?+
Juridisch is dit gebied grotendeels niet gereguleerd. Tennessee's ELVIS Act (2024) biedt beperkte posthume stem-bescherming. Bredere kaders rond AI-recreatie van overledenen zijn in ontwikkeling maar niet voltooid.
Moeten overledenen toestemming geven?+
Ethisch: idealiter wel, via testament-achtige aanwijzingen of levende registratie. In praktijk: vaak niet gedaan, wat ethische dilemma's oplevert voor nabestaanden die beslissen namens mensen die niet meer kunnen instemmen.