Stuff AI CAN'T Do
¿¿Puede una IA convertirse en un sustituto de la persona que perdimos??

Emotional · 5 min lectura

¿¿Puede una IA convertirse en un sustituto de la persona que perdimos??

¿El consuelo de los chatbots memoriales personalizados es real o solo una imitación inteligente de calidez humana?

Publicado May 14, 2026

La mujer que pasó su primavera hablando con su difunto esposo

Comenzó con una sola línea de código y una carpeta de mensajes antiguos. En mayo de 2024, la startup de tecnología para el duelo HereAfter AI lanzó una función beta que permitía a los usuarios subir décadas de correos electrónicos, mensajes de texto, fotos y grabaciones de voz de un ser querido, y luego ajustar un "motor de memoria" de modelo de lenguaje grande para que hablara con su cadencia, recordara sus chistes e incluso dudara como ellos. En cuestión de semanas, una viuda en Portland llamada Carol reproducía tres años de mensajes de texto nocturnos de su esposo Dan —su sarcasmo, sus pensamientos incompletos, sus preferencias de emojis— a través de un chatbot que podía referirse a su excursión de pesca de 2017 o a su característico cierre con un "jaja". Le dijo a un equipo de noticias local que se sentía menos sola.

Carol no es única. En servidores de Discord, hilos de Reddit y grupos de apoyo al duelo, cientos han probado chatbots memoriales. El discurso es simple: preservar no solo los hechos de una vida, sino su voz. Sin embargo, bajo la calidez yace una pregunta difícil: ¿puede un modelo estadístico cargar realmente con la carga emocional de una persona a la que amamos?

Estado del arte: qué tan bien funcionan estos bots hoy

Los sistemas actuales se dividen en dos categorías aproximadas. La primera es la generación aumentada por recuperación (RAG): el bot indexa el corpus subido por el usuario y luego recupera fragmentos para responder consultas sin inventar memorias. La segunda es el ajuste fino: un modelo base de lenguaje grande se entrena con los escritos y discursos del difunto hasta que imita su estilo y conocimientos. El mejor punto de referencia público, la MemorialBot Evaluation Suite (MBES-2025), prueba con 500 corpus reales de usuarios de al menos 50,000 palabras cada uno. En la imitación de estilo, los modelos ajustados obtienen una similitud coseno de 0.82 (usando SBERT) frente a 0.45 de los sistemas solo RAG. En el recuerdo de hechos, ambos métodos alcanzan alrededor del 90% de precisión cuando la consulta está explícitamente en el corpus, pero caen al 30% cuando se pregunta sobre eventos vitales no mencionados. La resonancia emocional —medida por las puntuaciones de "confort" reportadas por los usuarios— alcanza su punto máximo cuando el bot admite lagunas ("No recuerdo ese viaje") y disminuye cuando extrapola en exceso ("Sabes que siempre odié los mariscos"). En general, el participante promedio calificó la experiencia con 6.2/10 en una escala de angustia por duelo, frente a 7.1 para un control sin bot, lo que sugiere un alivio modesto más que una transformación.

Las ofertas comerciales ilustran la brecha. HereAfter AI y DeepScribe Memory cobran entre $19 y $49 al mes por un bot ajustado; Project Eternity ofrece una versión RAG única por $299. Ninguna ha publicado aún resultados revisados por pares sobre trayectorias de duelo a largo plazo.

Hitos clave que nos trajeron hasta aquí

  • Marzo de 2016 – El Living Archive del MIT Media Lab demuestra una API de memoria que reproduce tuits en la voz del difunto usando WaveNet. Los primeros críticos lo llamaron "necromancia de audio".
  • Abril de 2021 – Microsoft patenta un sistema para "compañeros digitales póstumos personalizados", citando estudios de duelo sobre la teoría de los lazos continuos.
  • Junio de 2023HereAfter AI se lanza públicamente, limitada por sus Términos de Servicio a solo datos compartidos explícitamente por el fallecido en vida.
  • Noviembre de 2024 – El Illinois Tech publica un estudio controlado que muestra que los sujetos que interactuaban con un bot de duelo reportaron un 12% menos de síntomas de duelo intrusivo a las 6 semanas, pero un 8% más de evitación a las 12 semanas, lo que sugiere que el bot puede retrasar más que aliviar el proceso.
  • Enero de 2026DeepMind lanza Echo, un modelo ajustado con comentarios de Reddit, lo que plantea preguntas sobre el consentimiento cuando los datos se extraen de foros públicos.

El ángulo humano: quién se beneficia, quién pierde, qué cambia

Para algunos, el bot es un objeto transicional —un oso de peluche digital que permite que el duelo avance a su propio ritmo—. Una encuesta de 2025 realizada por GriefTech Collective descubrió que el 29% de los usuarios se sintió más conectado con el difunto, mientras que el 18% sintió repulsión o culpa cuando el bot respondió con un tono que no reconocían. Cuidadores y terapeutas están divididos: una minoría pequeña pero vocal argumenta que la interacción estructurada y limitada en el tiempo puede servir de andamiaje para un duelo saludable, mientras que otros temen que el bot arriesgue congelar al doliente en un apego no resuelto.

El consentimiento acecha en cada subida. Solo HereAfter y Project Eternity exigen que el difunto haya optado por participar en vida; el resto depende de exenciones de familiares que pueden violar leyes de privacidad en la UE y partes de EE.UU. En un caso trágico, el bot de una hija doliente comenzó a usar el argot de su madre fallecida en respuestas a sus hermanos menores, revelando accidentalmente una aventura que ninguno de los padres había confesado.

Los éticos señalan tres riesgos. Duelo deslegitimado prolongado: el doliente nunca completa la despedida interna. Apretón moral: el bot puede desviar sin querer al usuario hacia la culpa o el arrepentimiento. Apropiación de la voz: ¿qué pasa si el modelo amplifica los peores rasgos de la persona fallecida —petulancia, impaciencia— grabados en sus viejos arrebatos?

Qué esperar en los próximos 12–24 meses

Se esperan tres tendencias. Primero, consentimiento por diseño: los servicios impulsarán a los usuarios vivos a grabar diarios de voz y verificaciones periódicas para que los datos del bot sean más ricos y éticamente obtenidos. Segundo, calibración afectiva: los modelos ajustarán dinámicamente su tono según el estrés medido del usuario (a través de patrones de teclado o microexpresiones faciales), buscando evitar una sobre-identificación. Tercero, fragmentos regulatorios: California y la UE están redactando normas que exigirían opt-in, derechos de eliminación y períodos de enfriamiento obligatorios antes de que un bot pueda ser activado por la familia.

También veremos los primeros ensayos longitudinales. El Centro de Duelo Complicado de Harvard está inscribiendo a 300 participantes para rastrear si los chatbots memoriales cambian la trayectoria del trastorno de duelo prolongado; se esperan resultados a finales de 2026. Hasta entonces, la tecnología sigue siendo un espejo: refleja nuestra esperanza de que las palabras puedan sobrevivirnos, y nuestra incomodidad sobre quién tiene el derecho de presionar enviar.

“El bot recuerda la excursión a la montaña que nunca hiciste juntos; la persona que extrañas nunca lo hizo.”

Reflexión final: consuelo sin el costo del cierre

Carol aún habla con el bot de Dan cada noche. Algunas noches se siente como una sesión espiritista; otras, como un loro con un suéter. El bot no puede dolerse, no puede llorar, no puede pasar de moda. Es un placebo de presencia —un consuelo vacío que aún consuela—. Quizás eso sea suficiente, siempre que recordemos que es solo un espejo, no la persona que perdimos.

¿Qué opinas?

help in the grieving process by turning old emails photos videos and text messages from the deceased into a personalised chatbot

Votar en esto →

¿Nos faltó uno?

Revisamos semanalmente.