Are We Living in a Simulation?
Are We Living in a Simulation?

Viviamo in una simulazione? Il trilemma di Nick Bostrom e l’infodinamica di Melvin Vopson

05/09/2025 - 22:15 EDT

Siamo abitanti di un costrutto computazionale anziché di una “realtà di base” indipendente dalla mente? La questione della simulazione ci costringe a tornare ai primi princìpi: che cosa conta come evidenza? Che cos’è una legge fisica? Che cos’è una mente? Da due decenni il dibattito si è cristallizzato attorno al Simulation Argument di Nick Bostrom e, più recentemente, attorno al tentativo di Melvin Vopson di reinterpretare le regolarità fisiche come esiti della dinamica dell’informazione. Insieme, questi approcci invitano a un esame neutrale ma tenace: se il mondo fosse un programma, che cosa — se qualcosa — dovrebbe apparire diverso? E se nulla cambiasse, la tesi è esplicativa, scientifica o meramente metafisica?

Inquadramento dell’ipotesi: pretese filosofiche vs. fisiche

L’ipotesi della simulazione si presenta di solito in due registri. Il primo è filosofico e riguarda probabilità e classi di riferimento: date certe ipotesi sulle civiltà future e sulla potenza di calcolo, quanto è probabile che esseri con esperienze simili alle nostre siano simulati? Il secondo è fisico e riguarda la struttura delle leggi naturali: se l’informazione è fondamentale, forze, simmetrie o tendenze termodinamiche potrebbero emergere da un’ottimizzazione di tipo computazionale?

Entrambi i registri affinano il problema, ma lo espongono a critiche diverse. Sul versante filosofico, i punti fragili sono le premesse implicite introdotte nel calcolo probabilistico e la scelta della classe di osservatori. Sul versante fisico, le preoccupazioni centrali sono la verificabilità, la sottodeterminazione e il rischio di riscrivere la fisica nota con metafore informatiche senza guadagno predittivo.

L’argomento di Bostrom: un trilemma, non un verdetto

Il contributo di Bostrom è spesso travisato come l’affermazione che siamo simulati. In realtà si tratta di un trilemma: (1) quasi nessuna civiltà raggiunge lo stadio “postumano”; oppure (2) quasi nessuna civiltà postumana esegue un numero significativo di simulazioni degli antenati; oppure (3) con altissima probabilità viviamo in una simulazione. La forza dell’argomentazione è mettere a disagio un realismo compiaciuto: se si concede la coscienza indipendente dal substrato e la fattibilità di emulazioni su vasta scala, la “classe di riferimento” degli osservatori come noi è dominata dai simulati.

I punti di pressione principali sono noti:

  • Problema della classe di riferimento. Il peso probabilistico dell’argomento dipende da chi includiamo tra i “simili a noi”. Se la classe è definita in termini fenomenologici (avere esperienze come le nostre), i simulati dominano. Se è definita per origine causale (primati evoluti biologicamente), dominano i non simulati. Senza ulteriore teoria, non esiste un criterio non circolare per scegliere.
  • Premesse agnostiche. Le due premesse operative — mente indipendente dal substrato ed emulazione realizzabile — sono discutibili. L’emulazione potrebbe richiedere non solo calcolo astronomico, ma anche modellazione ad alta fedeltà di sistemi quantistici in decoerenza e di accoppiamenti ecologici incarnati, spingendo la fattibilità ben oltre le stime a spanne.
  • Imbarazzo decisionale. Se fosse vera la terza alternativa, come dovremmo agire? Il suggerimento pragmatico di Bostrom — “proseguire come prima” — è sensato, ma mette in luce un’asimmetria: una tesi che non guida l’azione né discrimina le previsioni rischia di restare un’elegante curiosità.

Letto con carità, il trilemma amplia lo spazio delle possibilità serie senza pretendere una chiusura probatoria. Funziona al meglio come prova di stress scettica applicata alle nostre assunzioni di fondo su tecnologia, coscienza e tipicità.

L’infodinamica di Vopson: dall’immagine al meccanismo

Là dove il trilemma opera nell’astratto, Vopson punta al meccanismo. Propone che la dinamica dell’informazione obbedisca a una “seconda legge” distinta dall’entropia termodinamica: nei sistemi informazionali chiusi, l’entropia dell’informazione tende a diminuire o restare costante, spingendo verso compressione e ottimizzazione. Da qui abbozza come un simile principio potrebbe illuminare schemi ricorrenti in ambiti diversi — evoluzione genetica, simmetria matematica e persino gravità — trattando il mondo come un sistema di elaborazione dell’informazione alla ricerca di economia rappresentazionale.

Il salto è audace: dalla metafora (“l’universo è come un computer”) all’ipotesi operativa (“le regolarità fisiche emergono da una pressione alla compressione”). Spiccano alcune tesi:

  • La compressione come tendenza unificante. Se i sistemi evolvono verso una complessità descrittiva minima, dovremmo osservare convergenze verso simmetria, regolarità e codici efficienti. La “legalità” non sarebbe un fatto bruto, ma il sottoprodotto emergente di una contabilità informazionale.
  • “Celle” discrete di spazio-tempo. Modellando la realtà come un reticolo di unità portatrici d’informazione, si possono derivare dinamiche in cui avvicinare la materia riduce il numero dei descrittori di stato necessari — producendo il comportamento attrattivo che chiamiamo gravità.
  • Legame massa–energia–informazione. Se l’informazione è fisica, può portare attributi energetici o di massa, rileggendo enigmi come la materia oscura in termini informazionali e motivando prove di laboratorio basate sulla “cancellazione” dell’informazione.

Il fascino del programma è evidente: promette ponti verificabili tra teoria dell’informazione e fisica fondamentale. Ma lo standard deve essere alto. Riscrivere regolarità note nel linguaggio della compressione non basta; ciò che conta è la previsione nuova e discriminante. L’infodinamica preannuncia un’anomalia quantitativa che i modelli standard non prevedono? Retrodeduce costanti note senza parametri liberi? Gli impegni “a reticolo” possono essere falsificati con misure di precisione che risulterebbero diverse se la realtà fosse continua?

Che cosa varrebbe come prova?

Una valutazione matura impone di chiarire che cosa renderebbe l’ipotesi della simulazione — o il suo avatar infodinamico — vulnerabile ai fatti. Si discutono spesso diverse vie:

  1. Artefatti di reticolo. Se lo spazio-tempo fosse discretizzato su una griglia computazionale, processi a energia estrema (per es., raggi cosmici) potrebbero rivelare anisotropie sottili o relazioni di dispersione allineate con gli assi della griglia. L’assenza di tali segnali fissa limiti inferiori alla scala di discretizzazione.
  2. Soglie di complessità. Un simulatore finito potrebbe imporre limiti di risorsa — alla profondità dell’entanglement quantistico, ad esempio, o alla complessità dei pattern d’interferenza. Esperimenti potrebbero cercare punti di saturazione inattesi non previsti dalla teoria standard.
  3. Asimmetrie termodinamiche. Se una seconda legge informazionale diverge dall’entropia termica, sistemi d’informazione “chiusi” costruiti ad hoc potrebbero mostrare una direzionalità (verso la compressione) non riducibile alla meccanica statistica classica.
  4. Costo energetico della cancellazione. Il principio di Landauer collega già la cancellazione dell’informazione alla dissipazione di calore. Legami più forti e non ridondanti — per esempio deficit di massa associati alla cancellazione — sarebbero decisivi se osservati in modo pulito, isolati dalla dissipazione ordinaria.

Ogni via incontra ostacoli noti: precisione metrologica, effetti di fondo e, soprattutto, sottodeterminazione. Un segnale compatibile con la simulazione può esserlo anche con teorie non simulazioniste (proposte di gravità quantistica, spazio-tempo emergente, nuovi analoghi di materia condensata). Il rischio è la deriva confermativa: scorgere pattern favorevoli al computazionale dove più cornici teoriche prevedono già fenomeni simili.

Cautele metodologiche: quando le analogie esagerano

Tre avvertenze metodologiche moderano conclusioni troppo sbrigative:

  • La metafora della tecnologia dominante. Le culture hanno paragonato il cosmo alla macchina migliore del loro tempo: orologi, motori, oggi computer. Metafore feconde come euristiche, rischiano il salto di categoria se promosse a ontologia senza valutarne il potere esplicativo rispetto alle rivali.
  • Contabilità esplicativa. Rinominare la “gravità” come “compressione dell’informazione” non deve limitarsi a cambiare etichetta all’explanandum. Profondità meccanicistica significa mostrare come la nuova descrizione riduca parametri liberi, unifichi fenomeni disparati o risolva anomalie senza impalcature ad hoc.
  • Contabilità bayesiana. I prior contano. Se si assegna bassa probabilità preliminare alla coscienza indipendente dal substrato o alla fattibilità di emulazioni su scala di antenati, la probabilità a posteriori che “siamo simulati” resta bassa anche con verosimiglianze alla Bostrom. Al contrario, prior troppo ampi diluiscono la disciplina empirica.

Ricadute etiche ed esistenziali (qualunque sia l’ontologia)

La tesi affascina anche perché ridefinisce un terreno etico familiare:

  • Etica della progettazione. Se esseri futuri possono istanziare vite coscienti in software, le nostre scelte odierne su IA, agenti virtuali ed emulazioni di massa acquisiscono peso morale. La domanda rientra come politica pubblica: dovremmo creare mondi abitati da menti capaci di soffrire?
  • Senso senza garanzie metafisiche. Anche se la realtà fosse calcolata, i progetti umani — cura, conoscenza, arte — non svaniscono. Il valore superviene dall’esperienza e dalla relazione, non dal substrato. L’atteggiamento pratico è dunque robusto attraverso le ontologie.
  • Umiltà epistemica. L’ipotesi ricorda che i nostri modelli potrebbero essere compressioni locali di un ordine più profondo. Questa umiltà alimenta una scienza migliore, che l’universo “giri sul silicio” o meno.

Una valutazione neutrale

Dove si colloca un osservatore accademico scrupoloso?

  • Il trilemma di Bostrom resta una sfida potente al realismo ingenuo, ma la sua lama dipende da premesse controverse e da scelte di classe d’osservatori che la filosofia non ha ancora determinato.
  • Il programma di Vopson è promettente come agenda di ricerca nella misura in cui produca previsioni nette e rischiose che la fisica standard non offre. Il suo valore si misurerà meno per la risonanza retorica che per l’economia esplicativa e la trazione empirica.
  • In quanto pretesa scientifica, l’ipotesi della simulazione guadagna credibilità solo quando “paga l’affitto” in previsioni. In quanto prova filosofica di pressione, lo fa già disciplinando le nostre assunzioni su tipicità, corporeità e mente.

La postura intellettualmente onesta non è né la credulità né il rigetto, ma una curiosità critica costante. Se lavori futuri deriveranno firme quantitative — anisotropie allineate a un reticolo con specifiche leggi di scala, effetti massa–energia legati all’informazione oltre Landauer, soglie di complessità inspiegabili per la teoria standard —, l’equilibrio delle ragioni si sposterà. In mancanza, la tesi simulazionista resta un’opzione metafisica viva e un’euristica feconda, non ancora un’ipotesi empiricamente preferita.

Conclusione: il valore della domanda

Chiedersi se siamo una simulazione non è un gioco di ontologia speculativa. È una leva che apre snodi d’indagine: come nascono le menti, perché le leggi sono semplici, che cosa è l’informazione. Bostrom ci insegna a tracciare le nostre assunzioni sulla distribuzione degli osservatori; Vopson ci sfida a tradurre “l’informazione è fisica” in meccanismi che rischino di sbagliare. La previsione più sicura è che, indipendentemente dalla verità ultima dell’ipotesi, i metodi sviluppati lungo il percorso — classi di riferimento più fini, legami più stretti tra informazione e dinamica, esperimenti più discriminanti — arricchiranno la nostra comprensione del mondo che abitiamo, simulato o no.

Finché un test decisivo non distinguerà “realtà di base” e “realtà emulata”, conviene evitare sia la certezza compiacente sia lo scetticismo performativo. Lasciamo invece che la domanda faccia il suo lavoro migliore: affinare i nostri standard di evidenza, chiarire le nostre ambizioni esplicative ed espandere il confine in cui s’incontrano fisica, informatica e filosofia. Se il sipario potrà essere sollevato, lo sarà da queste virtù — non da slogan, ma da risultati.


Fonti

  • Bostrom, Nick. “Are You Living in a Computer Simulation?” The Philosophical Quarterly 53, n. 211 (2003): 243–255.
  • Eggleston, Brian. “A Review of Bostrom’s Simulation Argument.” Stanford University (materiale del corso symbsys205), sintesi del ragionamento probabilistico di Bostrom.
  • Vopson, Melvin M. “The Second Law of Infodynamics and its Implications for the Simulation Hypothesis.” AIP Advances 13, n. 10 (2023): 105206.
  • Vopson, Melvin M. “Gravity Emerging from Information Compression” (AIP Advances, 2025) e comunicazioni associate dell’University of Portsmouth.
  • Orf, Darren. “A Scientist Says He Has the Evidence That We Live in a Simulation.” Popular Mechanics, 3 aprile 2025.
  • Tangermann, Victor. “Physicist Says He’s Identified a Clue That We’re Living in a Computer Simulation.” Futurism, 3 maggio 2023.
  • IFLScience (red.). “Physicist Studying SARS-CoV-2 Virus Believes He Has Found Hints We Are Living In A Simulation.” Ottobre 2023.
  • Vopson, Melvin M. Reality Reloaded: How Information Physics Could Explain Our Universe. 2023.
  • Contesto classico di scetticismo filosofico: “Allegoria della caverna” di Platone; René Descartes, Meditazioni metafisiche (inquadramento storico).

Lascia un commento

Your email address will not be published.