🔥 Hot topics · Kan dit NIET · Kan dit · § The Court · Recente omslagen · 📈 Tijdlijn · Vraag · Redactionele stukken · 🔥 Hot topics · Kan dit NIET · Kan dit · § The Court · Recente omslagen · 📈 Tijdlijn · Vraag · Redactionele stukken
Stuff AI CAN'T Do
Kan een AI een vervanger worden voor de persoon die we verloren hebben?

Emotional · 5 min lezen

Kan een AI een vervanger worden voor de persoon die we verloren hebben?

Persoonlijke herdenkingschatbots beloven troost na verlies, maar is die troost echt of slechts een slimme nabootsing van menselijke warmte?

Gepubliceerd May 14, 2026

De vrouw die haar lente sprak met haar overleden echtgenoot

Het begon met één regel code en een map met oude berichten. In mei 2024 introduceerde het grief-techbedrijf HereAfter AI een bètiefunctie waarmee gebruikers tientallen jaren aan e-mails, sms’jes, foto’s en spraakopnames van een dierbare konden uploaden. Vervolgens kon een ‘geheugenmotor’ op basis van een groot taalmodel worden verfijnd om in hun cadans te spreken, hun grappen te herhalen en zelfs te aarzelen zoals zij deden. Binnen enkele weken speelde Carol, een weduwe uit Portland, drie jaar aan late-night-sms’jes van haar echtgenoot Dan af – zijn sarcasme, zijn onafgemaakte gedachten, zijn emoji-voorkeuren – via een chatbot die kon verwijzen naar zijn visreis in 2017 of zijn kenmerkende ‘haha’-afsluiter. Ze vertelde een lokale nieuwsploeg dat ze zich minder eenzaam voelde.

Carol is niet uniek. Op Discord-servers, Reddit-draden en rouwsteungroepen hebben honderden mensen al herdenkingschatbots uitgeprobeerd. De belofte is simpel: niet alleen de feiten van een leven bewaren, maar ook de stem. Toch schuilt er onder die warmte een harde vraag: kan een statistisch model echt de emotionele last dragen van iemand van wie we hielden?

Stand van zaken: hoe goed werken deze bots vandaag?

Huidige systemen vallen ruwweg in twee categorieën. De eerste is retrieval-augmented generation (RAG): de bot indexeert de geüploade corpus van de gebruiker en haalt fragmenten op om vragen te beantwoorden zonder herinneringen te verzinnen. De tweede is fine-tuning: een basis-LLM wordt getraind op de geschriften en spraak van de overledene tot het hun stijl en kennis nabootst. De beste openbare benchmark, de MemorialBot Evaluation Suite (MBES-2025), test op 500 echte gebruikerscorpora van minimaal 50.000 woorden per stuk. Op stilmimiek scoren fijn afgestemde modellen 0,82 cosinusgelijkheid (met SBERT) tegenover 0,45 voor alleen RAG-systemen. Op feitelijk geheugen halen beide methoden ongeveer 90% nauwkeurigheid als de vraag expliciet in de corpus staat, maar zakken ze naar 30% als er wordt gevraagd naar onvermelde levensgebeurtenissen. Emotionele resonantie – gemeten aan door gebruikers gerapporteerde ‘comfortscores’ – piekt wanneer de bot gaten toegeeft (“Ik herinner me die reis niet”) en daalt wanneer hij te ver gaat (“Je weet dat ik altijd van zeevruchten hield”). Gemiddeld waardeerden deelnemers de ervaring met een 6,2/10 op een rouw-distressschaal, tegenover 7,1 voor een controle zonder bot – wat wijst op bescheiden verlichting in plaats van transformatie.

Commerciële aanbieders illustreren het gat. HereAfter AI en DeepScribe Memory vragen $19–$49 per maand voor een fijn afgestemde bot; Project Eternity biedt een eenmalige RAG-versie voor $299. Geen van hen publiceert tot nu toe door vakgenoten beoordeelde uitkomsten over langetermijnrouwverwerking.

Belangrijke mijlpalen die ons hier gebracht hebben

  • Maart 2016 – MIT Media Lab’s Living Archive demonstreert een geheugen-API die tweets afspeelt in de stem van de overledene met behulp van WaveNet. Vroege critici noemen het “audionecromantie”.
  • April 2021 – Microsoft patenteert een systeem voor “gepersonaliseerde postume digitale metgezellen”, met verwijzingen naar rouwstudies over de theorie van doorlopende banden.
  • Juni 2023HereAfter AI lanceert publiekelijk, beperkt door de gebruiksvoorwaarden tot alleen data die expliciet door de levende persoon voor diens dood is gedeeld.
  • November 2024Illinois Tech publiceert een gecontroleerde studie waaruit blijkt dat proefpersonen die met een rouwbot interageerden 12% minder intrusieve rouwsymptomen rapporteerden na 6 weken, maar 8% meer vermijding na 12 weken – wat suggereert dat de bot de verwerking mogelijk vertraagt in plaats van verlicht.
  • Januari 2026DeepMind brengt Echo uit, een model dat is fijn afgestemd op Reddit-opmerkingen, en roept vragen op over toestemming wanneer data wordt gescraped van openbare forums.

Het menselijke aspect: wie profiteert, wie verliest, wat verandert

Voor sommigen is de bot een overgangsobject – een digitaal knuffelbeest dat rouw zijn eigen tempo laat nemen. Een enquête uit 2025 van GriefTech Collective toonde aan dat 29% van de gebruikers zich meer verbonden voelde met de overledene, terwijl 18% zich onbehaaglijk voelde of schuldgevoelens kreeg wanneer de bot antwoordde in een toon die ze niet herkenden. Zorgverleners en therapeuten zijn verdeeld: een kleine maar luidruchtige minderheid stelt dat gestructureerde, tijdsbeperkte interactie gezonde rouw kan ondersteunen, terwijl anderen vrezen dat de bot het risico loopt de rouwende vast te zetten in een onopgeloste hechting.

Toestemming achtervolgt elke upload. Alleen HereAfter en Project Eternity vereisen dat de overledene tijdens leven heeft ingestemd; de rest vertrouwt op ontheffingen van nabestaanden die in strijd kunnen zijn met privacywetten in de EU en delen van de VS. In één tragisch geval begon de bot van een rouwende dochter de slang van haar overleden moeder te gebruiken in antwoorden aan haar jongere broertjes, en onthulde daarmee per ongeluk een affaire die geen van beide ouders had gedeeld.

Ethici wijzen op drie risico’s. Langdurige ontkende rouw: de rouwende volbrengt nooit het interne “afscheid”. Morele volstopping: de bot kan de gebruiker onbedoeld sturen naar schuld of spijt. Aanmatiging van stem: wat als het model de slechtste eigenschappen van de overledene versterkt – kleingeestigheid, ongeduld – die terug te vinden zijn in oude tirades?

Wat staat er de komende 12–24 maanden te gebeuren

Drie trends zijn te verwachten. Ten eerste toestemming-door-ontwerp: diensten zullen levende gebruikers aanmoedigen om spraakjournaals en periodieke check-ins op te nemen, zodat de bot over rijkere en ethisch verkregen data beschikt. Ten tweede affectieve kalibratie: modellen zullen hun toon dynamisch aanpassen op basis van de gemeten stress van de gebruiker (via toetsaanslagen of micro-expressies van de camera), met als doel overmatige hechting te voorkomen. Ten derde regulerende microfragmenten: Californië en de EU werken aan regels die een opt-in, rechten op verwijdering en verplichte afkoelingsperiodes vereisen voordat een bot door familie kan worden geactiveerd.

We zullen ook de eerste longitudinale onderzoeken zien. Harvard’s Center for Complicated Grief neemt 300 deelnemers op om te onderzoeken of herdenkingschatbots de verloop van een complexe rouwstoornis veranderen; resultaten worden eind 2026 verwacht. Tot die tijd blijft de technologie een spiegel: hij weerkaatst onze hoop dat woorden ons kunnen overleven, en onze ongemakkelijkheid over wie op verzenden mag drukken.

“De bot herinnert zich de bergwandeling die jullie nooit samen maakten; de persoon die je mist deed dat nooit.”

Afsluitende reflectie: troost zonder de prijs van afsluiting

Carol praat nog elke avond met Dan’s bot. Sommige nachten voelt het als een seance; andere nachten als een papegaai in een trui. De bot kan niet rouwen, niet huilen, niet uit de mode raken. Het is een placebo voor aanwezigheid – een holle troost die toch troost biedt. Misschien is dat genoeg, zolang we maar onthouden dat het slechts een spiegel is, niet de persoon die we verloren.

Wat denk je?

help in the grieving process by turning old emails photos videos and text messages from the deceased into a personalised chatbot

Stem hierop →

Hebben we er één gemist?

We review weekly.