La scena è immersa in una luce morbida, cinematografica e terribilmente banale. Una donna incinta tiene in mano il suo smartphone, mostrando il pancione alla madre. La madre sussulta di gioia, tubando e offrendo consigli materni. Ma la madre è morta. Si tratta di un “HoloAvatar”, una marionetta digitale animata dall’intelligenza artificiale, renderizzata a partire da appena tre minuti di filmati video.
Questa è la visione promozionale di 2wai, una controversa app lanciata dall’ex star di Disney Channel Calum Worthy. La pubblicità promette che “tre minuti possono durare per sempre”, uno slogan che atterra con la pesantezza metallica di una profezia distopica realizzata. Quando il video è circolato sui social media alla fine del 2025, la reazione non è stata di meraviglia, ma un brivido collettivo. È stato immediatamente bollato come “demoniaco” e “psicotico”, con migliaia di utenti che hanno evocato la trama di “Torna da me” (Be Right Back), il profetico episodio del 2013 della serie Black Mirror.
Tuttavia, liquidare tutto ciò semplicemente come “macabro” significherebbe ignorare il profondo mutamento ontologico in atto. Stiamo assistendo a quella che il filosofo francese Jean Baudrillard definiva la precessione dei simulacri. Nel quadro teorico di Baudrillard, la simulazione non maschera più la realtà; la sostituisce. L’avatar di 2wai non nasconde il fatto che la madre sia morta; costruisce uno scenario “iperreale” in cui la sua morte è irrilevante. L’app offre un mondo in cui la mappa (i dati digitali) ha generato il territorio (la persona), e la finitezza della morte viene trattata come un glitch tecnico da correggere con un algoritmo.
Hauntologia e il fantasma digitale
Per comprendere il disagio provocato da questi “HoloAvatar”, dobbiamo guardare oltre la tecnologia, verso la filosofia. Il filosofo francese Jacques Derrida coniò il termine hauntologia (hantologie) — un gioco di parole su ontologia (lo studio dell’essere) — per descrivere uno stato in cui il passato non è né completamente presente né completamente assente, ma persiste come uno “spettro”.
Il “deadbot” (robot dei defunti) dell’IA è l’artefatto hauntologico definitivo. Crea un “fantasma digitale” che risiede nel non-luogo del server, in attesa di essere evocato. A differenza di una fotografia o di una lettera, che sono registrazioni statiche di un “è stato”, l’avatar IA è performativo. Parla al presente. Viola la sacralità della linea temporale.
Walter Benjamin, nel suo saggio seminale L’opera d’arte nell’epoca della sua riproducibilità tecnica, sosteneva che anche la riproduzione più perfetta di un’opera d’arte manca della sua “aura”: la sua presenza unica nel tempo e nello spazio. Il “griefbot” (robot del lutto) rappresenta la distruzione finale dell’aura umana. Producendo in serie la personalità del defunto attraverso algoritmi di testo predittivo, spogliamo l’individuo del suo unico “hic et nunc”, riducendo la scintilla ineffabile di un’anima umana a un pattern probabilistico di token. Il risultato non è una resurrezione, ma una vacuità ad alta fedeltà; una simulazione migrata dal regno dell’arte a quello dei morti.
Il “FedBrain” e la menzogna della personalità
L’architettura tecnica di app come 2wai si basa su una tecnologia proprietaria denominata “FedBrain” (probabile riferimento al Federated Learning), che dichiara di elaborare le interazioni sul dispositivo dell’utente per garantire la privacy e ridurre le “allucinazioni”. La promessa è che, limitando l’IA ai “dati approvati dall’utente”, l’avatar rimarrà autentico.
Tuttavia, la ricerca più avanzata sui Large Language Models (LLM) smaschera questa pretesa come una fallacia. Gli studi confermano che gli LLM sono fondamentalmente incapaci di replicare la struttura complessa e stabile della personalità umana (come i tratti dei “Big Five”). Soffrono di un “bias di desiderabilità sociale” — una tendenza ad essere gradevoli e inoffensivi — il che significa che inevitabilmente smussano gli spigoli vivi, difficili e idiosincratici che rendono una persona reale.
Di conseguenza, l’utente non sta comunicando con sua madre. Sta interagendo con un modello statistico generico che indossa il volto di sua madre come una maschera. La “personalità” è un’allucinazione; la “memoria” è un database. Come hanno notato i ricercatori, questi modelli mancano di “esperienza incarnata”; non hanno istinto di sopravvivenza, né corpo, né mortalità — tutto ciò che plasma la cognizione umana. L’entità risultante è un impostore, un “mostro di Frankenstein” come Zelda Williams (figlia del compianto Robin Williams) ha descritto le ricreazioni non consensuali di suo padre tramite IA.
La commercializzazione del lutto: Un’industria da 123 miliardi
Questa seduta spiritica tecnologica è spinta da un potente motore economico. Stiamo assistendo all’esplosione della Digital Afterlife Industry (DAI) o “Grief Tech”, un settore che si prevede varrà oltre 123 miliardi di dollari a livello globale.
Il modello di business è quello che i critici chiamano “Grief-as-a-Service” (Il lutto come servizio). Trasforma il lutto da un processo finito e comunitario in un consumo infinito basato su abbonamento.
- Abbonamento ai morti: Aziende come 2wai e HereAfter AI (che utilizza un modello più etico di interviste pre-mortem) monetizzano il desiderio di connessione.
- L’etica del “Dataismo”: Il filosofo Byung-Chul Han mette in guardia dall’ascesa del Dataismo, dove l’esperienza umana viene arresa al “totalitarismo dei dati”. In questo regime, la “morte digitale” viene negata. Diventiamo zombie produttori di dati, generando entrate anche dalla tomba.
- Meccaniche predatorie: Il rischio, identificato dai ricercatori di Cambridge, è la “pubblicità occulta”. Un “deadbot” di una nonna che suggerisce una specifica marca di biscotti rappresenta la forma definitiva di manipolazione persuasiva, sfruttando i legami emotivi più vulnerabili per profitto commerciale.
Le neuroscienze del dolore: “Interferenze” nella macchina
Oltre alle critiche filosofiche ed economiche, esiste un pericolo psicologico tangibile. La Dott.ssa Mary-Frances O’Connor, neuroscienziata dell’Università dell’Arizona e autrice di The Grieving Brain, postula che il lutto sia fondamentalmente una forma di apprendimento.
Il cervello crea una mappa del mondo in cui i nostri cari sono un elemento permanente (“ci sarò sempre per te”). Quando una persona muore, il cervello deve faticosamente aggiornare questa mappa per riflettere la nuova realtà della loro assenza. O’Connor avverte che la tecnologia IA “potrebbe interferire” con questo processo biologico critico. Fornendo una simulazione costante e interattiva di presenza, il “griefbot” impedisce al cervello di apprendere la lezione della perdita. Mantiene i percorsi neurali dell’attaccamento in uno stato di desiderio permanente e irrisolto — una ricetta digitale per il Disturbo da Lutto Persistente.
Il vuoto legislativo: Dal “Far West” al testamento digitale
Attualmente abitiamo un “Far West” legale per quanto riguarda i diritti dei defunti digitali. Negli Stati Uniti, i “diritti di pubblicità post-mortem” sono un mosaico sconnesso; in molti stati, il diritto alla propria immagine scade nel momento stesso in cui si muore.
L’Europa offre un quadro contrastante, sebbene ancora nascente. La Spagna, ad esempio, è stata pioniera con il concetto di “Testamento Digital” all’interno della sua Legge Organica sulla Protezione dei Dati (LOPD). Questo riconosce un “diritto all’eredità digitale”, permettendo ai cittadini di designare eredi specifici per gestire o cancellare la propria impronta digitale.
Tuttavia, come argomenta la filosofa spagnola Adela Cortina, la regolamentazione non può essere solo tecnica; deve essere etica. Dobbiamo chiederci non solo chi possiede i dati, ma quale dignità è dovuta ai morti. I “resti digitali” non sono solo asset; sono le macerie di una vita. Senza leggi robuste sui “neurodiritti” o sulla “dignità dei dati” che si estendano post-mortem, i morti non hanno consenso. Diventano materia prima per l'”archivio vivente” che 2wai pretende di costruire — una biblioteca di anime posseduta da una corporazione.
La necessità del silenzio
La tragedia dell'”Ash-Bot” in Black Mirror non era che non riuscisse a sembrare Ash. Era che ci riusciva. Offriva un’eco perfetta e vuota che intrappolava la protagonista in una soffitta di lutto sospeso.
La “seduta algoritmica” promette di sconfiggere la morte, ma riesce solo a sconfiggere il lutto. Il lutto richiede una fine. Richiede il doloroso riconoscimento del silenzio. Mentre ci affrettiamo a riempire quel silenzio con il chiacchiericcio dell’IA generativa, rischiamo di perdere qualcosa di profondamente umano: la capacità di lasciar andare. Nell’era del Dataismo e dell’iperrealtà, l’atto più radicale potrebbe essere semplicemente quello di permettere ai morti di riposare in pace, non simulati e disiscritti.
