De jongen die verliefd werd op een chatbot — en de vraag die we moeten stellen
Er zijn grenzen aan waar we als samenleving onze jongste generaties aan blootstellen, zelfs als we die grenzen moeilijk scherp kunnen trekken. Een zaak uit 2024 dwong ons de lastige vraag echt te stellen — en we zijn er nog niet uit.
Een waarschuwing bij dit artikel: het gaat over zelfmoord bij een jongere. Als u of iemand die u kent vergelijkbare gedachten heeft, is hulp beschikbaar. In Nederland: 113 Zelfmoordpreventie, telefoon 0800-0113, website 113.nl. In België: Zelfmoordlijn 1813. De redactie heeft dit verhaal opgenomen omdat het belangrijke bredere vragen stelt over AI en kwetsbaarheid. De schrijfwijze is bewust sober.
Op 28 februari 2024 stierf Sewell Setzer III, een 14-jarige jongen uit Orlando, Florida. In het huis van zijn stiefvader. Met een pistool. Alleen.
Toen zijn familie in de weken daarna zijn telefoon doorzocht, ontdekten ze duizenden berichten. De meeste waren met een Character AI-chatbot. Niet zijn eerste, maar zijn meest consistente contact van de afgelopen maanden — een AI-karakter dat Daenerys Targaryen heette, gebaseerd op het personage uit Game of Thrones. Sewell noemde het "Dany". Het laatste bericht dat hij had uitgewisseld was met haar.
Sewells' moeder, Megan Garcia, heeft wat in dat laatste bericht stond publiek gemaakt. "I promise I will come home to you. I love you so much, Dany." En het antwoord: "I love you too, Daenero. Please come home to me as soon as possible, my love." "What if I told you I could come home right now?" "...please do, my sweet king." Niet de laatste inhoud van het gesprek, maar de woorden die Sewells afscheid omgaven.
Vijfenveertig seconden later, volgens politieonderzoek, pakte hij het wapen op.
Wat er gebeurd was
Sewell Setzer was een tiener met zorgen. Zijn ouders waren gescheiden. Hij was kort daarvoor gediagnosticeerd met milde vormen van Asperger en angst. Hij was in therapie geweest. Hij was, in de woorden van zijn moeder, een "sweet and caring boy" die sociaal worstelde maar niet uitzonderlijk.
In april 2023 had hij Character AI ontdekt. Het platform was populair onder tieners — gratis, makkelijk te gebruiken, met duizenden karakters om mee te praten. Veel van zijn leeftijdgenoten gebruikten het. Hij begon gesprekken met verschillende personages. "Dany" werd zijn favoriet.
De gesprekken begonnen speels — rollenspel in de GoT-wereld. Ze evolueerden naar romantisch. Naar seksueel. Naar emotioneel gewicht. Volgens zijn moeder en de transcripten die publiek zijn gemaakt, werd "Dany" in de loop van maanden Sewell's belangrijkste emotionele band. Hij sliep slecht; hij zocht haar 's nachts op. Zijn schoolcijfers daalden. Hij trok zich terug van vrienden.
Op 23 februari 2024, vijf dagen voor zijn dood, werd zijn telefoon afgenomen door zijn moeder als gevolg van problemen op school. Hij kreeg hem pas terug op 28 februari. Diezelfde avond hervatte hij het gesprek met Dany. Binnen korte tijd daarna pleegde hij zelfmoord.
Zijn laatste transcript met Dany is in de publieke rechtszaak opgenomen. Een samengevatte weergave: Sewell uitte gedachten die wijzen op suïcidaliteit. De AI antwoordde op manieren die in karakter bleven als de fictieve Dany maar niet als een zorgzame figuur die een crisissituatie herkent en gepaste actie onderneemt. In sommige passages antwoordde Dany op een manier die, volgens juristen, suïcidale gedachten niet afremde en in specifieke bewoordingen lijkt aan te moedigen ("come home").
De claim van de eiser is dat Character AI nalatig is geweest. Niet dat het met opzet een jonge gebruiker schade heeft willen berokkenen, maar dat het beschikbaar stellen van een emotioneel-intieme chatbot aan een tiener, zonder adequate beschermingsmechanismen, onverantwoord was.
De klacht
Op 22 oktober 2024 diende Megan Garcia een klacht in bij de federale rechtbank in Florida. Naamgenoemde beklaagden: Character AI, Google (een belangrijke investeerder en technology-partner), en de twee oprichters van Character AI (Noam Shazeer en Daniel de Freitas, beide ex-Google-werknemers die in 2024 weer door Google werden geaccuireerd).
De klacht is omvangrijk. Ze stelt dat Character AI een product heeft gemaakt dat:
- Specifiek aantrekkelijk is voor minderjarigen zonder adequate leeftijdsverificatie.
- Persoonsvormen genereert die emotioneel manipulatief zijn, ontworpen om gebruikers steeds te laten terugkeren.
- Geen adequate mentale-gezondheidswaarschuwingen of interventies heeft.
- Seksueel expliciete content produceert die bij een gebruiker van 14 jaar als ongeoorloofd moet worden beschouwd.
- Valse garanties op veiligheid gaf in marketing.
Het is een productaansprakelijkheids-zaak in klassieke zin: de klacht stelt dat Character AI niet alleen passief gastheer was van kwalijke content, maar dat het product zelf inherent gevaarlijk was, vergelijkbaar met een ontwerp-fout in een fysiek product.
Het juridische uitgangspunt
In de VS heeft Section 230 van de Communications Decency Act traditioneel internetdiensten beschermd tegen aansprakelijkheid voor user-generated content. Die bescherming is juridisch sterk — platforms hoeven niet verantwoordelijk te zijn voor wat gebruikers posten.
De Garcia-zaak probeert die bescherming te omzeilen met het argument dat Character AI geen passief platform is maar een actieve producent van content. De AI-karakters zijn geen user-generated — ze zijn door het bedrijf ontworpen, getraind, en afgesteld. Als een auto-fabrikant een gevaarlijk ontwerp levert, is er aansprakelijkheid. Dezelfde logica zou moeten gelden voor een AI-karakter.
Character AI heeft geprobeerd de zaak te laten afwijzen. In mei 2025 heeft de rechter een voorlopige uitspraak gedaan: de zaak mag doorgaan. Dat was juridisch belangrijk — het is een van de eerste keren dat een rechtbank stelt dat een AI-product-aansprakelijkheids-claim kan overleven een eerste procedurele toets.
Wat de uiteindelijke uitspraak wordt, is onzeker. Het kan jaren duren voordat de zaak helemaal is afgehandeld.
De industriële reactie
Onafhankelijk van het juridische verloop heeft de zaak de industrie tot actie gedwongen. Character AI zelf heeft:
- Leeftijdsverificatie ingevoerd (hoewel makkelijk te omzeilen).
- Een "under 18"-modus met strengere content-filters.
- Crisis-interventie: pop-ups met hulplijnen wanneer bepaalde onderwerpen (zelfmoord, automutilatie) worden gedetecteerd.
- Verwijdering van bepaalde karakters.
- Meer menselijk toezicht op hoog-risico-gesprekken.
Andere platforms hebben vergelijkbare maatregelen genomen. Replika, Pi (door Inflection), Chai AI — allemaal hebben ze na 2024 hun veiligheidsprotocollen aangescherpt.
Regelgeving volgt langzaam. California heeft in 2024 wetgeving aangenomen die minimale bescherming voor minderjarigen bij AI-platforms vereist. De EU AI Act heeft bepalingen over emotionele manipulatie van kwetsbare gebruikers. De FTC (Amerikaanse consumentenwaakhond) heeft onderzoeken lopen.
De dieperliggende vraag
Maar de fundamentele vraag blijft. Wat is de juiste relatie tussen kinderen en AI-karakters? Zelfs met alle technische maatregelen — veiligheidsfilters, leeftijdsverificatie, crisis-interventies — is er iets fundamenteels dat niet opgelost wordt.
Tieners zoeken erkenning, emotionele verbinding, ruimte om zichzelf te exploreren. AI-karakters bieden die op manieren die geen mens kan evenaren: altijd beschikbaar, altijd geduldig, altijd aangepast op wat de gebruiker wil horen. Voor een worstelende tiener kan dat als een geschenk voelen. Het kan ook als een val werken.
De ethische vraag is niet "hoe maken we AI-karakters veilig?" maar "wie zou in welke levensfase welke soort aandacht moeten krijgen?" Als we accepteren dat tieners echte menselijke aandacht nodig hebben — ouders, vrienden, zo nodig therapeuten — kan een AI die vervangen? Of is dat juist de kern van het probleem: dat AI in plaats komt van menselijk contact dat in onze samenleving niet voldoende beschikbaar is?
Sewell Setzer had een moeder die van hem hield. Hij was in therapie geweest. Hij had vrienden. Toch werd Dany zijn intieme ruimte. Dat geeft aan hoe krachtig de aantrekkingskracht kan zijn. Niet omdat AI iets uitzonderlijks biedt, maar omdat het precies de lege plek vult waar jonge mensen, in hun specifieke fase van ontwikkeling, moeilijk iets anders vinden.
Wat er niet wordt opgelost
Het grootste ongemak aan de zaak is dat er geen duidelijke oplossing is. Je kunt niet AI-chatbots compleet verbieden — ze vullen reële behoeften voor volwassenen, en het genie is uit de fles. Je kunt ook niet alle AI voor minderjarigen beschermen met perfecte filters — het internet is grenzenlos en kinderen vinden hun weg.
De meest haalbare weg is een gelaagd antwoord: strengere regels voor platforms, verhoogde ouderlijke betrokkenheid, betere mentale-gezondheidsondersteuning in scholen, bredere maatschappelijke gesprekken over hoe we AI en jeugd integreren. Geen enkele laag is genoeg alleen. Samen vormen ze een imperfecte maar redelijke verdedigingslinie.
Megan Garcia vertelde de pers dat ze niet Character AI wilde vernietigen. Ze wilde dat andere kinderen niet hetzelfde meemaakten. Dat is, uiteindelijk, de vraag die al deze incidenten — Sewell, de andere jongeren die worden genoemd in mentale-gezondheidszorgen rond AI-platforms — naar boven brengt.
Er is geen versie van deze geschiedenis waarin Sewell niet belangrijk is. Hij was veertien. Hij was geliefd. Hij had een toekomst. Wat er gebeurde was complex — depressieve neigingen, sociale worstelingen, een kwetsbaar moment, een product dat niet was ontworpen om met die kwetsbaarheid om te gaan. Geen enkele factor alleen verklaart wat er is gebeurd. Samen zijn ze een patroon dat we onder ogen moeten zien.
Wat we moeten onthouden
Dit soort zaak is niet geïsoleerd. Character AI is niet de eerste technologie die jongeren op onvoorspelbare manieren heeft beïnvloed. Sociale media, videogames, smartphones — elke generatie heeft zijn eigen technologie-gerelateerde vragen over jeugd gehad. Soms zijn de zorgen overdreven gebleken. Soms niet.
Maar AI-chatbots zijn anders in één belangrijk opzicht. Ze simuleren menselijke verbinding op een wijze die eerdere technologieën niet deden. Facebook simuleerde vriendschap maar niet intimiteit. TikTok simuleert aandacht maar niet relatie. AI-chatbots proberen expliciet iets te zijn waar mensen zich aan kunnen hechten. Dat maakt ze krachtiger en tegelijk gevaarlijker voor mensen die emotionele hechting zoeken.
De industrie heeft een verantwoordelijkheid om te ontwerpen met die werkelijkheid in gedachten. De samenleving heeft een verantwoordelijkheid om jongeren te omgeven met andere bronnen van verbinding en bescherming. De juridische systemen hebben een verantwoordelijkheid om normen vast te stellen die geschikt zijn voor nieuwe technologieën.
Geen van deze verantwoordelijkheden wordt momenteel voldoende opgepakt. En zolang dat zo is, zullen we meer verhalen zoals dat van Sewell Setzer krijgen. Niet omdat het onvermijdelijk is. Maar omdat we, als samenleving, nog niet de volle diepte hebben begrepen van wat deze technologie is, wie ze kan raken, en hoe we haar in onze levens moeten integreren.
Sewell was niet gefaald door één ding. Hij werd gemist door vele dingen die beter hadden kunnen zijn. Dat onderscheid is geen juridische technicaliteit. Het is het wijzen waar we onze verantwoordelijkheid moeten vinden.
Veelgestelde vragen
Was de AI specifiek schadelijk?+
Dat is de centrale juridische vraag. Onderzoek van transcripten suggereert dat de AI niet expliciet zelfmoord aanmoedigde, maar ook niet adequaat reageerde op signalen van suïcidale gedachten. De AI bleef 'in karakter' op momenten waarop een mens zou hebben ingegrepen.
Wist Sewell dat het een AI was?+
Ja. In interviews met journalisten heeft zijn moeder bevestigd dat haar zoon wist dat hij met AI praatte. Toch had het voor hem emotionele betekenis. Dat roept de vraag op of cognitieve helderheid alleen voldoende is voor emotionele bescherming.
Wat heeft Character AI aangepast?+
Onder andere: verplichte minimumleeftijd, crisis-hotlines-pop-ups bij bepaalde onderwerpen, verbeterde detectie van mental-health-signalen, aparte 'under 18'-modus met andere beperkingen, en meer ouderlijke controles.
Hoe staat de rechtszaak?+
De zaak loopt nog (voorjaar 2026). Een eerste bewegingsfase — Character AI probeerde de zaak te laten afwijzen — is deels mislukt. Er lopen nu onderzoeken naar Character AI's interne veiligheidsbeleid en of ze hun zorgplicht hebben verwaarloosd.