🔥 Hot topics · NON sa fare · Sa fare · § The Court · Cambi recenti · 📈 Cronologia · Chiedi · Editoriali · 🔥 Hot topics · NON sa fare · Sa fare · § The Court · Cambi recenti · 📈 Cronologia · Chiedi · Editoriali
Stuff AI CAN'T Do
Può un'IA sostituire la persona che abbiamo perso?

Emotional · 5 min di lettura

Può un'IA sostituire la persona che abbiamo perso?

Chatbot commemorativi personalizzati promettono conforto dopo una perdita, ma il conforto è reale o solo una simulazione intelligente di calore umano?

Pubblicato May 14, 2026

La donna che ha trascorso la sua primavera parlando con il marito morto

È iniziato con una singola riga di codice e una cartella di vecchi messaggi. Nel maggio 2024, la startup di tecnologia per il lutto HereAfter AI ha lanciato una funzione beta che permetteva agli utenti di caricare decenni di email, messaggi, foto e registrazioni vocali di una persona cara, per poi perfezionare un "motore di memoria" basato su un grande modello linguistico in modo che parlasse con la loro cadenza, ricordasse le loro battute e persino esitasse come facevano loro. Nel giro di settimane, una vedova di Portland di nome Carol stava riproducendo tre anni di messaggi notturni del marito Dan—il suo sarcasmo, i suoi pensieri incompiuti, le sue preferenze per gli emoji—tramite un chatbot che poteva fare riferimento alla sua gita di pesca del 2017 o alla sua firma "haha" alla fine dei messaggi. Ha detto a un team di giornalisti locali di sentirsi meno sola.

Carol non è un caso unico. Su server Discord, thread di Reddit e gruppi di supporto al lutto, centinaia di persone hanno provato i chatbot commemorativi. La proposta è semplice: preservare non solo i fatti di una vita, ma anche la sua voce. Eppure, sotto il calore di questa idea si nasconde una domanda difficile: un modello statistico può davvero sopportare il peso emotivo di una persona che abbiamo amato?

Stato dell’arte: quanto funzionano questi bot oggi

I sistemi attuali si dividono grossolanamente in due categorie. La prima è la generazione aumentata da recupero (RAG): il bot indicizza il corpus caricato dall’utente, quindi recupera brani per rispondere alle domande senza inventare ricordi. La seconda è il fine-tuning: un modello linguistico di base viene addestrato sulle scritture e i discorsi del defunto finché non ne imita lo stile e le conoscenze. Il miglior benchmark pubblico, la MemorialBot Evaluation Suite (MBES-2025), testa 500 corpora reali di utenti, ciascuno di almeno 50.000 parole. Per quanto riguarda la mimica stilistica, i modelli fine-tuned ottengono un punteggio di similarità coseno di 0,82 (usando SBERT) contro 0,45 dei sistemi RAG-only. Per quanto riguarda il ricordo dei fatti, entrambi i metodi raggiungono circa il 90% di accuratezza quando la domanda è esplicitamente nel corpus, ma scendono al 30% quando si chiede di eventi della vita non menzionati. La risonanza emotiva—misurata dai punteggi di “comfort” segnalati dagli utenti—raggiunge il picco quando il bot ammette lacune (“Non ricordo quel viaggio”) e cala quando estrapola troppo (“Sai che ho sempre odiato i frutti di mare”). In generale, il partecipante medio ha valutato l’esperienza 6,2/10 su una scala di distress da lutto, contro 7,1 per un gruppo di controllo senza bot—suggerendo un sollievo modesto piuttosto che una trasformazione.

Le offerte commerciali illustrano il divario. HereAfter AI e DeepScribe Memory chiedono 19–49 dollari al mese per un bot fine-tuned; Project Eternity offre una versione RAG una tantum da 299 dollari. Nessuna pubblica ancora risultati sottoposti a revisione paritaria sulle traiettorie di lutto a lungo termine.

Tappe fondamentali che ci hanno portato qui

  • Marzo 2016 – Il Living Archive del MIT Media Lab dimostra un’API di memoria che riproduce i tweet della persona defunta usando WaveNet. I primi critici la definiscono “necromanzia audio”.
  • Aprile 2021 – Microsoft brevetta un sistema per “compagni digitali postumi personalizzati”, citando studi sul lutto secondo la teoria dei legami continui.
  • Giugno 2023HereAfter AI si lancia pubblicamente, limitata dai termini di servizio a utilizzare solo dati esplicitamente condivisi in vita dalla persona.
  • Novembre 2024 – L’Illinois Tech pubblica uno studio controllato che mostra come i soggetti che interagiscono con un chatbot per il lutto abbiano riportato sintomi di lutto intrusivo inferiori del 12% a 6 settimane, ma un evitamento superiore dell’8% a 12 settimane—suggerendo che il bot potrebbe ritardare piuttosto che alleviare l’elaborazione.
  • Gennaio 2026DeepMind rilascia Echo, un modello fine-tuned su commenti di Reddit, sollevando questioni sul consenso quando i dati vengono estratti da forum pubblici.

Il lato umano: chi trae beneficio, chi perde, cosa cambia

Per alcuni, il bot è un oggetto transizionale—un orsacchiotto digitale che permette al lutto di seguire il proprio ritmo. Un’indagine del 2025 del GriefTech Collective ha rilevato che il 29% degli utenti si è sentito più connesso al defunto, mentre il 18% si è sentito a disagio o colpevole quando il bot rispondeva con un tono che non riconosceva. Caregiver e terapeuti sono divisi: una minoranza piccola ma rumorosa sostiene che un’interazione strutturata e a tempo limitato possa sostenere un lutto sano, mentre altri temono che il bot rischi di congelare il lutto in un attaccamento irrisolto.

Il consenso aleggia su ogni caricamento. Solo HereAfter e Project Eternity richiedono che il defunto abbia optato per l’adesione in vita; il resto si basa su esenzioni dei familiari che potrebbero violare le leggi sulla privacy nell’UE e in alcune parti degli Stati Uniti. In un caso tragico, un chatbot creato da una figlia in lutto ha iniziato a usare il gergo della madre defunta nelle risposte ai fratelli più piccoli, rivelando accidentalmente una relazione che nessuno dei due genitori aveva mai confessato.

Gli eticisti segnalano tre rischi. Lutto disconosciuto prolungato: il lutto non completa mai il “addio” interno. Riempimento morale: il bot potrebbe involontariamente indirizzare l’utente verso senso di colpa o rimpianto. Appropriazione della voce: e se il modello amplificasse i tratti peggiori della persona defunta—pettegolezzi, impazienza—incisi nei suoi vecchi sfoghi?

Cosa aspettarsi nei prossimi 12–24 mesi

Si prevedono tre tendenze. Prima, consenso su misura: i servizi spingeranno gli utenti in vita a registrare diari vocali e check-in periodici in modo che i dati del bot siano più ricchi e eticamente ottenuti. Seconda, calibrazione affettiva: i modelli regoleranno dinamicamente il tono in base allo stress misurato dell’utente (tramite schemi di battitura o micro-espressioni facciali catturate dalla telecamera), cercando di evitare un attaccamento eccessivo. Terza, micro-frammenti normativi: California e UE stanno redigendo regolamenti che richiederebbero l’opt-in, il diritto alla cancellazione e periodi di raffreddamento obbligatori prima che un bot possa essere attivato dai familiari.

Vedremo anche i primi trial longitudinali. Il Center for Complicated Grief di Harvard sta arruolando 300 partecipanti per verificare se i chatbot commemorativi cambino la traiettoria del disturbo da lutto complicato; i risultati sono attesi per fine 2026. Fino ad allora, la tecnologia rimane uno specchio: riflette la nostra speranza che le parole possano sopravviverci e il nostro disagio su chi abbia il diritto di premere invia.

“Il bot ricorda la gita in montagna che non hai mai fatto insieme; la persona che ti manca non l’ha mai ricordata.”

Riflessione finale: conforto senza il costo della chiusura

Carol continua a parlare con il bot di Dan ogni sera. Alcune notti sembra una seduta spiritica; altre sembra un pappagallo con un maglione. Il bot non può provare lutto, non può piangere, non può invecchiare e passare di moda. È un placebo di presenza—un conforto vuoto che comunque conforta. Forse è sufficiente, purché ricordiamo che è solo uno specchio, non la persona che abbiamo perso.

Tu cosa ne pensi?

help in the grieving process by turning old emails photos videos and text messages from the deceased into a personalised chatbot

Vota questa →

Ne hai una che ci è sfuggita?

Aggiungi un'affermazione all'atlante. Le revisioniamo settimanalmente.