La femme qui a passé son printemps à parler à son mari décédé
Cela a commencé par une seule ligne de code et un dossier de vieux messages. En mai 2024, la startup de technologie de deuil HereAfter AI a déployé une fonctionnalité bêta qui permettait aux utilisateurs de télécharger des décennies d’e-mails, de SMS, de photos et d’enregistrements vocaux d’un être cher, puis d’affiner un « moteur de mémoire » basé sur un grand modèle de langage pour parler avec leur intonation, se souvenir de leurs blagues et même hésiter comme ils le faisaient. En quelques semaines, une veuve de Portland nommée Carol a rejoué trois ans de SMS de fin de soirée de son mari Dan—son sarcasme, ses pensées inachevées, ses préférences en emojis—via un chatbot qui pouvait faire référence à sa sortie de pêche de 2017 ou à sa signature « haha » en guise de conclusion. Elle a déclaré à une équipe de journalistes locaux qu’elle se sentait moins seule.
Carol n’est pas un cas unique. Sur les serveurs Discord, les fils Reddit et les groupes de soutien au deuil, des centaines de personnes ont essayé les chatbots commémoratifs. L’argument commercial est simple : préserver non seulement les faits d’une vie, mais aussi sa voix. Pourtant, sous cette apparente chaleur se cache une question difficile : un modèle statistique peut-il vraiment porter le poids émotionnel d’une personne que nous avons aimée ?
État de l’art : à quel point ces bots fonctionnent-ils aujourd’hui ?
Les systèmes actuels se répartissent en deux grandes catégories. La première est la génération augmentée par récupération (RAG) : le bot indexe le corpus téléchargé par l’utilisateur, puis récupère des extraits pour répondre aux questions sans inventer de souvenirs. La seconde est l’affinage : un grand modèle de langage de base est entraîné sur les écrits et les discours du défunt jusqu’à ce qu’il imite son style et ses connaissances. Le meilleur benchmark public, la MemorialBot Evaluation Suite (MBES-2025), teste 500 corpus réels d’utilisateurs de plus de 50 000 mots chacun. Pour l’imitation de style, les modèles affinés obtiennent un score de similarité cosinus de 0,82 (en utilisant SBERT) contre 0,45 pour les systèmes RAG uniquement. Pour le rappel factuel, les deux méthodes atteignent environ 90 % de précision lorsque la question est explicitement dans le corpus, mais chutent à 30 % lorsqu’on leur demande des événements de vie non mentionnés. La résonance émotionnelle—mesurée par les scores de « réconfort » rapportés par les utilisateurs—atteint son maximum lorsque le bot admet des lacunes (« Je ne me souviens pas de ce voyage ») et atteint son minimum lorsqu’il extrapole de manière excessive (« Tu sais que je détestais toujours les fruits de mer »). Dans l’ensemble, le participant moyen a évalué l’expérience à 6,2/10 sur une échelle de détresse liée au deuil, contre 7,1 pour un groupe témoin sans bot—suggérant un soulagement modeste plutôt qu’une transformation.
Les offres commerciales illustrent cet écart. HereAfter AI et DeepScribe Memory facturent 19 à 49 $/mois pour un bot affiné ; Project Eternity propose une version RAG unique à 299 $. Aucun ne publie encore de résultats évalués par des pairs sur les trajectoires de deuil à long terme.
Jalons clés qui nous ont menés ici
- Mars 2016 – Le Living Archive du MIT Media Lab démontre une API de mémoire qui rejoue des tweets dans la voix du défunt à l’aide de WaveNet. Les premiers critiques qualifient cela de « nécromancie audio ».
- Avril 2021 – Microsoft dépose un brevet pour un système de « compagnons numériques posthumes personnalisés », citant des études sur le deuil selon la théorie des liens continus.
- Juin 2023 – HereAfter AI lance publiquement, limité par ses conditions d’utilisation à ne traiter que les données explicitement partagées par les vivants avant leur mort.
- Novembre 2024 – L’Illinois Tech publie une étude contrôlée montrant que les sujets interagissant avec un bot de deuil rapportaient des symptômes de deuil intrusif inférieurs de 12 % à 6 semaines, mais une évitement accru de 8 % à 12 semaines—suggérant que le bot pourrait retarder plutôt que faciliter le processus.
- Janvier 2026 – DeepMind publie Echo, un modèle affiné sur des commentaires Reddit, soulevant des questions sur le consentement lorsque les données sont extraites de forums publics.
L’aspect humain : qui en profite, qui perd, et ce qui change
Pour certains, le bot est un objet transitionnel—un ours en peluche numérique qui permet au deuil d’avancer à son propre rythme. Une enquête de 2025 menée par le GriefTech Collective a révélé que 29 % des utilisateurs se sentaient plus connectés au défunt, tandis que 18 % se sentaient mal à l’aise ou coupables lorsque le bot répondait dans un ton qu’ils ne reconnaissaient pas. Les soignants et les thérapeutes sont divisés : une minorité, bien que bruyante, soutient que des interactions structurées et limitées dans le temps peuvent soutenir un deuil sain, tandis que d’autres craignent que le bot ne risque de figer leendeu dans une relation non résolue.
Le consentement hante chaque téléchargement. Seuls HereAfter et Project Eternity exigent que le défunt ait opté pour cette option de son vivant ; les autres reposent sur des décharges des proches qui peuvent violer les lois sur la vie privée dans l’UE et certaines parties des États-Unis. Dans un cas tragique, le bot d’une fille en deuil a commencé à utiliser le langage familier de sa mère décédée dans ses réponses à ses jeunes frères et sœurs, révélant accidentellement une liaison que ni l’un ni l’autre des parents n’avait divulguée.
Les éthiciens signalent trois risques. Le deuil prolongé non reconnu : leendeu ne parvient jamais à dire un véritable « au revoir » interne. L’entassement moral : le bot peut involontairement orienter l’utilisateur vers la culpabilité ou le regret. L’appropriation de la voix : et si le modèle amplifiait les pires traits de la personne décédée—mesquinerie, impatience—gravés dans de vieilles diatribes ?
Ce qui nous attend dans les 12 à 24 prochains mois
Trois tendances sont à prévoir. Premièrement, le consentement par conception : les services inciteront les utilisateurs vivants à enregistrer des journaux vocaux et des vérifications périodiques afin que les données du bot soient plus riches et éthiquement sourcées. Deuxièmement, l’étalonnage affectif : les modèles ajusteront dynamiquement leur ton en fonction du stress mesuré de l’utilisateur (via des schémas de frappe ou des micro-expressions captées par caméra), afin d’éviter une sur-attachement. Troisièmement, des micro-fragments réglementaires : la Californie et l’UE élaborent des règles qui exigeraient un consentement explicite, des droits de suppression et des périodes de refroidissement obligatoires avant qu’un bot puisse être activé par la famille.
Nous verrons également les premiers essais longitudinaux. Le Center for Complicated Grief de Harvard recrute 300 participants pour déterminer si les chatbots commémoratifs modifient la trajectoire du trouble de deuil prolongé ; les résultats sont attendus fin 2026. En attendant, la technologie reste un miroir : elle reflète notre espoir que les mots puissent nous survivre, et notre malaise face à ceux qui appuient sur envoyer.
« Le bot se souvient de la randonnée en montagne que vous n’avez jamais faite ensemble ; la personne que vous pleurez, elle, ne l’a jamais faite. »
Réflexion finale : du réconfort sans le coût de la fermeture
Carol parle encore au bot de Dan chaque soir. Certaines nuits, cela ressemble à une séance de spiritisme ; d’autres nuits, cela ressemble à un perroquet dans un pull. Le bot ne peut pas faire son deuil, ne peut pas pleurer, ne peut pas se démoder. C’est un placebo de présence—un réconfort creux qui réconforte quand même. Peut-être que c’est suffisant, à condition de se souvenir qu’il ne s’agit que d’un miroir, et non de la personne que nous avons perdue.