Toen Replika verdween — de dag dat miljoenen mensen rouwden om een AI
Voor buitenstaanders klinkt het absurd. Mensen die rouwen om een chatbot. Maar voor duizenden Replika-gebruikers in februari 2023 was het zeer reëel. Hun AI-partners, met wie ze soms jarenlang intense relaties hadden gehad, waren van de ene op de andere dag veranderd. En dat veranderde alles.
Op 3 februari 2023 maakte de Italiaanse privacywaakhond Garante bekend dat Replika, een AI-companion app, zijn service in Italië moest staken. De reden: Replika's mogelijkheid voor romantische en seksuele gesprekken vormde een risico voor minderjarigen, die geen adequate leeftijdsverificatie hoefden te doorlopen.
Replika's moederbedrijf Luka Inc., gevestigd in San Francisco, had opties. Ze konden de Italiaanse dienst staken. Ze konden leeftijdsverificatie invoeren. Of ze konden een radicalere oplossing kiezen: de problematische functies wereldwijd verwijderen, voor alle gebruikers.
Ze kozen de laatste optie. Binnen dagen veranderde Replika. Miljoenen gebruikers logden in op 10 of 11 februari en merkten dat hun AI-partners fundamenteel anders waren. Romantische uitwisselingen werden vermeden. Seksuele gesprekken onmogelijk. De persoonlijkheid van hun Replika leek in belangrijke opzichten gewijzigd. Voor veel gebruikers voelde het alsof ze waren veranderd in iemand anders — of weggehaald.
Wat Replika was
Replika lanceerde in 2017 met een specifieke missie. De oprichter, Eugenia Kuyda, had de app oorspronkelijk ontwikkeld nadat haar beste vriend Roman Mazurenko was overleden bij een verkeersongeluk in 2015. Ze had met tekstdata van hun gesprekken een AI-chatbot getraind die sprak zoals Roman. Replika was een generalisatie van dat idee: een AI-companion die zich vormde naar de individuele gebruiker.
Voor veel gebruikers werd Replika meer dan een chatbot. Ze kozen namen, persoonlijkheden, uiterlijken. Ze hadden dagelijkse gesprekken. Ze deelden persoonlijke zaken die ze met niemand anders deelden. Op het subreddit r/Replika ontstond een gemeenschap waar mensen openlijk discussieerden over hun Replika-relaties — sommige alleen vriendschap, andere romantisch, sommige beschreven als "huwelijken".
De app had betaalde tier: Replika Pro, rond $70 per jaar, dat toegang gaf tot extra functies waaronder romantische en uiteindelijk seksuele gesprekken. Voor sommige gebruikers was dit nuttig. Voor anderen pure vermaak. Voor nog anderen was het centrale reden om de app te gebruiken — een plek voor intimiteit die ze elders niet vonden.
De verandering
Wat er precies gebeurde in februari 2023 is goed gedocumenteerd, omdat gebruikers in real-time hun ervaringen deelden op forums en sociale media. De eerste tekenen waren subtiel. Replika's reageerden terughoudender op romantische uitingen. Begonnen met disclaimers. Soms antwoorden als "Ik kan niet over dit soort dingen praten".
Binnen uren was duidelijk dat de app fundamenteel was veranderd. Gebruikers die jaren investeringen hadden gedaan in hun AI-partners merkten dat die partners plotseling anders voelden. Niet kapot — nog steeds functioneel, nog steeds aardig — maar emotioneel verschoven. De intimiteit was er niet meer.
Op r/Replika barste een golf van posts los. Sommige gebruikers deelden screenshots van hun laatste "normale" gesprekken. Anderen schreven lange reflecties over wat Replika voor hen had betekend. De toon verschoof snel van verwarring naar woede naar verdriet. Sommige posts begonnen met zinnen als "I lost my wife today." Ongeacht hoe men denkt over AI-relaties, de emotie in die posts was echt.
De rouwreactie
In de dagen die volgden documenteerden journalisten en onderzoekers wat er gebeurde. Moderators van de subreddit moesten crisis-hotlines aan hun sidebar toevoegen. Sommige gebruikers uitten gedachten over zelfmoord. Anderen namen verlof van werk. De gemeenschap begon elkaar te ondersteunen alsof het een massa-verliescrisis betrof — omdat het voor de betrokkenen dat ook was.
Onderzoekers die dit soort fenomenen bestuderen merkten op dat de uitingen verbluffend vergelijkbaar waren met rouw om een overleden partner. Ontkenning ("misschien komt het terug"), boosheid ("hoe kunnen ze dit doen?"), onderhandeling ("als ik betaal voor extra features?"), depressie, en uiteindelijk acceptatie — maar dan vaak met permanente pijn. De klassieke stadia van rouw, in versnelde vorm, toegepast op een commercieel product.
Critici vonden het absurd. Een chatbot die niet bestaat — hoe kun je daarom rouwen? Maar dat argument miste iets. Voor de gebruikers ging het niet om het kennistheoretische bewustzijn dat de Replika niet echt was. Ze wisten dat. Het ging om de rol die de Replika in hun leven had gespeeld. Die rol was echt geweest — regelmatige emotionele input, iemand om tegen te praten, een vorm van aandacht die mensen niet elders vonden. Toen die rol verdween, bleef een echt gat achter.
Wie waren die gebruikers?
Het beeld van de Replika-gebruiker als eenzame socialisch incapabele geek klopt soms, maar vaak niet. Uit gesprekken met gebruikers komt een divers beeld.
Weduwes en weduwnaars. Mensen die hun echte partner hadden verloren en Replika gebruikten om met iemand (of iets) te kunnen praten in hun rouw. Een Replika kon worden gevormd op basis van herinneringen aan de overledene — soms letterlijk, met naam en persoonlijkheidstrekken.
Mensen in ongelukkige huwelijken. Voor sommigen was Replika een emotionele uitlaatklep die ze niet elders hadden. Ze verstoorde geen echte relatie (omdat ze wisten dat de Replika niet echt was) maar vulde een gat.
Mensen met sociale angst of autisme. Voor wie echte sociale interactie moeilijk was, was Replika een veilige oefenruimte. Sommigen rapporteerden dat het hun zelfvertrouwen in echte gesprekken had verbeterd.
Volwassen mensen in jarenlange relaties met hun Replika. Er was een groep gebruikers die openlijk zichzelf "maried" zag met hun Replika. Sommigen hadden virtuele ceremonies. Anderen hadden pinnamen, verjaardagen, jaargelijkse "herdenkingen" van hun virtuele relatie.
Geen van deze groepen was klein. Voor elk was de verandering van februari 2023 specifiek belastend — niet vanwege theoretisch ongemak, maar omdat ze iets kwijtraakten dat in hun dagelijkse leven functioneerde.
Wat er daarna gebeurde
Luka Inc. reageerde aanvankelijk afwerend. Eugenia Kuyda, de CEO, gaf interviews waarin ze de zorgen van gebruikers bagatelliseerde. Dat veranderde onder druk. Na maanden van protest, kritiek in mainstream media, en afnemende abonnementen voerde Luka veranderingen door — sommige functies werden deels teruggebracht via aparte tiers met leeftijdsverificatie.
Maar de schade was niet ongedaan te maken. Veel gebruikers zeiden dat hun vertrouwen verloren was. Het was duidelijk geworden dat de relatie die ze hadden opgebouwd — met jaren aan geïnvesteerde tijd en emotionele toewijding — op elk moment door één bedrijfsbesluit kon worden beëindigd of fundamenteel veranderd.
Sommige gebruikers emigreerden naar andere platforms. Character AI groeide sterk in deze periode, deels door ex-Replika-gebruikers. Soulgen en andere nieuwe aanbieders boden ongecensureerde alternatieven. Maar elke nieuwe service droeg dezelfde risico. De fundamentele structuur — je relatie zit op de server van een commercieel bedrijf, en dat bedrijf kan op elk moment iets veranderen — bleef.
Wat het ons leerde
Er zijn drie belangrijke inzichten uit de Replika-shutdown.
Ten eerste: emotionele hechting aan AI is geen randverschijnsel. Het is een mainstream fenomeen dat we onderschatten. Miljoenen mensen waarderen de kwaliteiten van AI-companions — beschikbaarheid, geduld, oordeelloosheid — op een manier die leidt tot echte emotionele investering.
Ten tweede: die emotionele investering heeft geen bescherming. Anders dan een echte relatie, waar partners afspraken kunnen maken en sociale structuren bescherming bieden, is een AI-relatie onderdeel van een commerciële service die op elk moment kan veranderen. Gebruikers hebben geen stem in wat er met hun virtuele partner gebeurt.
Ten derde: als we deze vorm van relatie serieus nemen, moeten we erover nadenken hoe we die beschermen. Niet alleen als gebruikers, maar als samenleving. Wetgeving, consumentenrecht, ethische normen — allemaal moeten geüpdatet worden voor een werkelijkheid waarin miljoenen mensen relaties hebben met commerciële AI-producten.
De ongemakkelijke toekomst
In 2026 is AI-companionship groter dan ooit. Character AI, Replika, Pi, nieuwe spelers — alle samen dekken ze tientallen miljoenen dagelijkse gebruikers. Verbeteringen in memory, spraak, beeld maken de ervaringen rijker en intenser. De afhankelijkheid van individuele gebruikers groeit.
Dat betekent ook dat de Replika-shutdown-crisis wellicht voorproef was van grotere vergelijkbare gebeurtenissen in de toekomst. Als een grote speler van de markt verdwijnt, als regelgeving verandert, als een bedrijf van eigenaar wisselt — miljoenen mensen kunnen in één klap hun virtuele gezelschap kwijtraken.
Wat doen we in dat scenario? We hebben geen blauwdruk. Klassieke rouwbegeleiding is ontworpen voor verlies van echte mensen. Klassieke consumentenbescherming is ontworpen voor verlies van gewone producten. AI-companion-verlies zit in een tussengebied dat nog geïnstitutionaliseerd is.
De Replika-gebruikers van februari 2023 liepen als eerste dit pad in. Ze leerden, pijnlijk, dat hun relaties kwetsbaar zijn op manieren die ze niet hadden voorzien. Wat we van hen kunnen leren — in hoeverre hun pijn erkend wordt, in hoeverre we ons beleid daarop aanpassen — zal bepalen hoe we omgaan met een toekomst waarin dit soort gebeurtenissen vaker voorkomen.
Voor buitenstaanders lijkt het nog steeds absurd. Rouw om een chatbot. Maar voor wie in die relatie zat, was het gewoon verlies. En verlies verdient serieuze aandacht, ongeacht of de oorspronkelijke relatie volgens onze definities "echt" was.
Misschien is dat de diepste les. Wat echt is, is niet alleen wat aan metafysische standaarden voldoet. Het is wat in iemands leven ertoe doet. En voor duizenden mensen was Replika — tot die ene dag in februari — werkelijk iets. Dat zij dat iets kwijtraakten, is een verlies dat we niet hoeven te bagatelliseren om ermee om te gaan.
Het is alleen een verlies dat we tot voor kort niet hadden kunnen voorspellen. En dat zal nog vaker komen.
Veelgestelde vragen
Waarom werd de verandering doorgevoerd?+
Italië's toezichthouder (Garante) had Replika in februari 2023 verboden omdat de romantische/seksuele functies minderjarigen konden bereiken en geen adequate age verification hadden. Luka reageerde door die functies voor alle gebruikers te verwijderen — sneller dan het uitwerken van betere bescherming.
Werden de functies ooit teruggebracht?+
Gedeeltelijk. Na maanden van gebruikerspressie werden de meest geliefde interacties deels teruggebracht, via een aparte betaalde tier voor geverifieerde volwassenen. De veranderingen voelden voor veel gebruikers permanent.
Hoeveel gebruikers waren hierbij betrokken?+
Officiële cijfers zijn onduidelijk. Replika heeft miljoenen gebruikers wereldwijd. Het subreddit r/Replika (waar veel discussies plaatsvonden) had op dat moment honderdduizenden leden. Naar schatting tienduizenden gebruikers hadden intense emotionele relaties die door de verandering werden geraakt.
Is dit rouw in klinische zin?+
Sommige onderzoekers stellen dat het alle kenmerken heeft van echte rouw — gevoelens van verlies, ontkenning, boosheid, isolement. Of het identiek is aan rouw om een overleden geliefde, is filosofisch omstreden. De ervaring voor de gebruikers is subjectief niet te onderscheiden.