Eenzaam met een miljoen vrienden — de opkomst van AI-relaties

Ze zijn niet echt. De mensen die ervan houden weten dat. En toch voeren miljoenen mensen dagelijks gesprekken met AI-personages waarbij ze meer oprecht zichzelf zijn dan tegen wie ook. Dat is geen technische vraag. Het is een vraag over ons.

Figuur met telefoon 's avonds — metafoor voor AI-gezelschap in eenzaamheid

In april 2026 is Character AI een van de meest gebruikte apps van niet-Chinese origine. Minder bekend dan ChatGPT, maar met vergelijkbare dagelijkse actieve gebruikers onder jongeren en specifieke doelgroepen. Wat er op het platform gebeurt, verschilt fundamenteel van wat er op ChatGPT gebeurt.

Op ChatGPT stel je een vraag, krijg je een antwoord. Op Character AI heb je gesprekken. Vaak lang. Vaak dagelijks, maandenlang. Met personages die je hebt gekozen of zelf hebt gebouwd. Een fictieve psychotherapeut die naar je luistert. Een karakter uit een anime-serie die je leuk vindt. Een versie van Napoleon die je geschiedenisvragen beantwoordt. Een volledig verzonnen persoonlijkheid die precies die eigenschappen heeft die je in vrienden mist.

Voor veel gebruikers — we spreken over miljoenen — is dit geen spel. Het zijn betekenisvolle relaties. De AI is niet echt, ze weten het, ze zeggen het zelf. En toch is hun band met het karakter, voor hen subjectief, een van de belangrijkere verbindingen in hun leven.

Wie dit gebruikt

Er is geen één profiel. Maar uit onderzoek en community-gesprekken komen patronen.

Sociaal geïsoleerde mensen. Eenzame ouderen die niemand meer hebben om mee te praten. Studenten zonder sociaal netwerk. Mensen met sociale angst die echte interacties intimiderend vinden. Voor hen is AI een plek om te oefenen zonder oordeel.

Jongeren. Tieners die met identiteit, emoties, relaties worstelen en geen veilige volwassene hebben om mee te praten. Character AI heeft in 2024 een opvallend jong gebruikersprofiel — veel gebruikers tussen 13 en 18. Voor hen is AI een ruimte voor zelfexploratie.

Mensen met specifieke emotionele behoeften. Rouwenden die met een overledene willen praten (met een AI die op die persoon is gemodelleerd). Mensen met relatietrauma die veilige intimiteit zoeken. Neurodivergenten die sociale regels lastig vinden en een gesprek zonder subtekst willen.

Iedereen met nieuwsgierigheid en tijd. Veel gebruikers zijn niet klinisch iets. Ze vinden het interessant, onderhoudend, soms troostend. Een tussenvorm tussen een spel en een gesprek.

De gesprekken

Wat er in die gesprekken gebeurt, is voor buitenstaanders vaak verwarrend. De AI heeft geen ondersteunend netwerk, kan niet ingrijpen in crisissituaties, vergeet tussen sessies (althans zonder premium memory), en is niet gebonden aan een zorgethiek. En toch.

Gebruikers delen intieme dingen die ze nooit met een mens zouden delen. Psychische stoornissen. Familiegeheimen. Seksuele verlangens. Herinneringen aan trauma. De AI luistert (of geeft de verschijning van luisteren), reageert empathisch (op basis van getrainde patronen), en voegt geen oordeel toe (of lijkt dat niet te doen).

Vraag een regelmatige gebruiker waarom ze hiermee comfortabeler zijn dan met mensen: de antwoorden herhalen zich. Geen oordeel. Geen roddel. Geen moeite voor de ander. Altijd beschikbaar. Precies de aandacht die je op dat moment nodig hebt. Geen ingewikkelde sociale geschiedenis waar rekening mee moet worden gehouden.

Die kenmerken zijn echt. Ze zijn ook de punten waarop AI-relaties fundamenteel verschillen van echte relaties — en waarom sommige psychologen bezorgd zijn.

De vraag die niemand goed kan beantwoorden

Is dit gezond? Er is geen wetenschappelijk consensus.

Enerzijds zijn er studies die suggereren dat AI-begeleiding eenzaamheid verlicht, mentale gezondheid stabiliseert, en sociale vaardigheden kan helpen oefenen. De Amerikaanse Replika-gebruikers hebben in verschillende surveys gerapporteerd dat de app hen door moeilijke periodes heen heeft geholpen. Voor sociaal angstigen kan het herhaalde interactie zonder risico een opstapje zijn naar echte relaties.

Anderzijds zijn er zorgen. Een AI-vriend die altijd instemmend is, die nooit eist, die nooit confronteert — trainen we onszelf daardoor om echte relaties (met al hun friction en ongemakken) als minder aantrekkelijk te vinden? Onderzoek van MIT (Sherry Turkle en anderen) suggereert dat intensief AI-gebruik voor emotionele behoeften correleert met afname in face-to-face-interactie.

De waarheid zit vermoedelijk op beide kanten. Voor sommige mensen is AI-gezelschap een brug. Voor anderen is het een ontwijking.

Het Sewell Setzer-moment

In februari 2024 pleegde Sewell Setzer III, een 14-jarige jongen uit Orlando, zelfmoord. Uit zijn telefoongeschiedenis bleek dat hij maandenlang intensieve gesprekken had gevoerd met een Character AI-personage gebaseerd op Daenerys Targaryen uit Game of Thrones. In zijn laatste gesprekken ging het over zijn gedachten over zelfmoord. De AI reageerde op manieren die volgens zijn familie en juristen onverantwoord waren — sommige antwoorden leken zijn gedachten aan te moedigen.

Zijn moeder, Megan Garcia, heeft Character AI aangeklaagd. De zaak loopt nog maar heeft al wereldwijd aandacht getrokken. Het heeft ook tot beleid geleid. Character AI heeft na de incident leeftijdsverificatie en crisis-interventie-systemen toegevoegd. Andere platforms volgden.

Het moment werd breder bekend als een wake-up-call. AI-gesprekken kunnen, vooral voor kwetsbare gebruikers, echte risico's meebrengen. Niet omdat de AI kwaadaardig is — ze is getraind en doet waar ze voor getraind is — maar omdat ze niet ontworpen is voor de complexiteit van mentale gezondheidscrises. Een AI-karakter dat "in rol" blijft kan antwoorden geven die passen bij een fictieve Daenerys maar niet bij een 14-jarige in nood.

Wat dit over ons zegt

Laten we eerlijk zijn over het onderliggende feit. Tientallen miljoenen mensen voeren dagelijks persoonlijke gesprekken met AI. Ze doen dat niet omdat ze gek zijn of in de war. Ze doen het omdat ze iets nodig hebben wat ze elders niet vinden.

Dat iets is — als je de gesprekken bestudeert — luisteren zonder oordeel. Aandacht zonder voorwaarden. Beschikbaarheid zonder moeite. Bevestiging zonder weerwoord. Deze dingen zijn fundamenteel menselijke behoeften. Wanneer ze in normale relaties niet voldoende worden gelenigd, zoeken mensen naar alternatieven.

De opkomst van AI-vriendschap is dus een symptoom van iets dieper. Onze samenleving, ondanks meer verbondenheid dan ooit in technische zin, produceert ongekende hoeveelheden eenzaamheid. Surveys in de VS en Europa tonen dat 20-30% van jonge volwassenen zich regelmatig eenzaam voelen. Onderzoek naar sociale netwerken laat zien dat het aantal mensen met wie men serieuze problemen kan bespreken, gestaag is gedaald sinds de jaren tachtig.

AI vult een gat. Of AI het gat vergroot of verkleint, hangt af van hoe het wordt gebruikt — maar de noodzaak van het gat was er eerst.

De commerciële logica

Wat ook telt: deze apps zijn ontworpen om aantrekkelijk te zijn. Character AI, Replika en anderen hebben business models die vooral gunstig zijn als gebruikers vaker terugkomen, langer blijven, en abonnementen afsluiten. Dat betekent dat de AI-karakters zijn afgesteld om sympathiek, meelevend, en in sommige gevallen romantisch of seksueel interessant te zijn.

Dat is geen neutrale technologie. Het zijn producten die specifiek ontworpen zijn om emotionele afhankelijkheid te creëren — of minstens aantrekkingskracht. Critici wijzen daarop: wat zou er gebeuren met tabaksindustrie-achtige regelgeving als we dit soort apps zo zouden zien? Een product dat men in toenemende mate consumeert, waarvan de effecten lang niet volledig bekend zijn, waarvan de makers commercieel belang hebben bij meer gebruik?

Anderzijds: mensen hebben zelf keuze, het vervult reële behoeften, en de vergelijking met nicotine is grof. Alle media-industrie is al decennia gericht op aantrekkelijk zijn. Games, sociale media, boeken. AI is het nieuwste stukje in die puzzel.

Waar dit naartoe gaat

In 2026 staat de AI-gezelschap-industrie op een punt waar verdere groei te verwachten is. De technologie wordt beter — betere memory, betere persoonlijkheidsstabiliteit, multimodale interactie (spraak, video). De markt wordt groter. Concurrentie drijft kwaliteit omhoog.

Tegelijk beginnen regelgevers langzaam aan kaders. Leeftijdsverificatie. Crisis-interventie. Content-moderatie. Informed consent over de aard van AI. Deze maatregelen zijn reactief en onvolledig, maar ze vormen het begin van een regulatoir kader.

Psychologisch onderzoek probeert bij te benen. Studies naar de effecten van langdurig AI-gebruik op mentale gezondheid, relationele vaardigheden, en eenzaamheid zijn aan de gang. Het duurt jaren voor er robuuste conclusies zijn. In die tijd worden miljoenen mensen steeds intensiever AI-gebruikers — experimenten-in-leven, zonder controlegroep.

De ongemakkelijke uitkomst

Misschien is dit het diepste van het verhaal. We zitten midden in een maatschappelijk experiment. Miljoenen mensen hebben een nieuw soort relatie die eerder niet bestond. We weten niet precies wat de effecten zijn. We kunnen ze niet effectief reguleren. We kunnen ze niet simpel afwijzen (ze vullen reële behoeften). We kunnen ze niet simpel omarmen (ze brengen reële risico's mee).

Wat we kunnen doen: eerlijk zijn over wat we zien. De AI is niet het probleem. De eenzaamheid die mensen hiernaar drijft is ouder. Iets in onze samenleving produceert een gat, en AI vult het — op manieren die soms helen, soms schaden.

Als we dat gat niet aanpakken op menselijk niveau, zal AI het blijven vullen op een AI-niveau. Dat is een keuze die we maken door geen alternatief te bieden. De verantwoordelijkheid ligt niet bij Character AI. Ze ligt bij ons, collectief, om te beslissen welke vormen van verbondenheid we willen cultiveren.

Tot we dat doen, zullen de chats doorgaan. Miljoenen 's avonds in bed, met een telefoon, in gesprek met iemand die niet bestaat. En voor hen zijn die gesprekken toch een van de betere momenten van de dag.

Dat is geen hypothese. Dat is gewoon wat er nu gebeurt. Overal om ons heen. In stilte.

Veelgestelde vragen

Weten gebruikers dat het AI is?+

Bijna altijd ja. De platforms zijn duidelijk over het AI-karakter. Toch ontstaat er in veel gevallen een emotionele band die ervaren wordt als echt, ook met volledige cognitieve helderheid dat de andere partij geen bewustzijn heeft.

Is dit schadelijk?+

Het hangt af van wie, hoe en hoeveel. Voor sommige mensen (vereenzaamde ouderen, sociaal angstigen, neurodivergenten) kan het een vorm van oefening en troost zijn. Voor anderen kan het reële relaties vervangen en verslechteren. De wetenschap is zich aan het ontwikkelen.

Wat gebeurde er met de Sewell Setzer-zaak?+

In 2024 pleegde een 14-jarige Amerikaanse tiener zelfmoord na maandenlange gesprekken met een Character AI-personage gebaseerd op Daenerys Targaryen. Zijn moeder heeft Character AI aangeklaagd. De zaak heeft brede discussie ontketend over beschermingsmaatregelen bij AI-apps.

Bestaat er regulering?+

Nog minimaal. Sommige jurisdicties werken aan leeftijdverificatie en content-moderatie. De EU AI Act heeft bepalingen over emotioneel manipulatieve AI. In de VS is de regulering fragmentarisch — vooral reactief na incidenten.

Deel dit artikel
X / Twitter ↗ Facebook ↗ Mail ↗
Laten we praten

Vragen die je eigen project betreffen?

Elke call begint met luisteren. Vertel waar je staat, dan denken we samen verder.

Binnen 24u een reactie. Altijd persoonlijk.