Uno dei più grandi misteri inerenti alla realtà fisica di tutto ciò che è umanamente osservabile, parafra-sando ciò che Albert Einstein più di mezzo secolo fa ebbe a dire, è il fatto che il “mondo” sia matemati-camente comprensibile. Tuttavia, lo stupore per tale mistero si attenua nel momento in cui comprendiamo che è proprio la mente umana, ad essere “programmata” per funzio-nare secondo la logica matematica. Ciò che facciamo, in sostanza, è costruire delle mappe matematiche per cercare di comprimere l’osservabile e renderlo dunque umanamente intelligibile. Dunque, l’evoluzione nel campo delle scienze fisiche, ha potuto compiersi solo grazie ad una costante e parallela evoluzione del simbolismo dei concetti e delle leggi matematiche, che da parecchi secoli a questa parte, ha definito la storia del pensiero scientifico e filosofico del genere umano. Ed è proprio grazie a tali premesse, che verso la fine del XIX secolo i padri fondatori della meccanica statistica (Maxwell, Boltzmann e Gibbs) gettarono le basi di ciò che pochi decenni più tardi avrebbe preso il nome di: teoria dell’informazione. Già nella prima metà del XX secolo dunque, si iniziò a descrivere i principi della termodinamica attraverso la teoria dell’informazione (i cui sviluppi matematici più importanti vennero apportati verso la metà del secolo scorso, principalmente da C.Shannon, N.Wiener e H.Nyquist). Se pensiamo ad esempio alle macchine a vapore e alla grandezza termodinamica che limita la capacità di tali macchine di compiere lavoro utile, ovvero all’entropia, scopriamo che essa è proporzionale al numero di bit registrati dalle posizioni e dalle velocità delle molecole di una determinata sostanza; dunque, in sintesi, l’entropia è proporzionale al numero di bit di informazione richiesti per descrivere lo stato microscopico di un sistema (la massima velocità a cui un sistema fisico può elaborare informazione, è proporzionale alla sua energia; si ricordi inoltre che, con l’accrescere dell’entropia, aumenta anche lo spazio in cui si possono trovare le particelle, il che implica una maggiore indeterminatezza della loro posizione ed infine dunque, la necessità di maggiore informazione). L’entropia quindi non è da intendersi solo ed esclusivamente come la quantità di energia termica che non può essere convertita in energia meccanica all’interno di un sistema chiuso, bensì anche come una misura della quantità di informazione.
L’entropia è legata all’energia cinetica da una relazione di questo tipo: maggiore è l’agitazione degli atomi, maggiore è la quantità di informazione richiesta per descrivere il loro comportamento. La temperatura dà una misura della relazione tra energia e informazione: maggiore è la temperatura (agitazione termica), maggiore è l’energia impiegata dagli atomi per immagazzinare un bit di informazione. Ecco perché l’entropia aumenta quando si ha un trasferimento di energia/calore da un corpo caldo a uno freddo: una quantità fissa di energia (che si conserva) fa immagazzinare più informazione in un ambiente freddo piuttosto che in uno caldo; mentre quando tutto il sistema è alla stessa temperatura, l’entropia è massima (la quantità totale di informazione in un sistema isolato non può decrescere; secondo il principio di Landauer, se viene cancellata una certa quantità di informazione in una parte del sistema considerato, ciò significa che tale informazione non è andata perduta, ma si è semplicemente trasferita da un’altra parte del sistema. La dinamica dei sistemi fisici conserva l’informazione).
Di tali scoperte, lo sviluppo della meccanica quantistica ne rafforzò ben presto le basi scientifiche con l’introduzione del concetto di informazione quantistica. I bit che costituiscono l’intero universo, sono dunque dei bit quantistici (o qubit), aventi delle proprietà ben diverse e molto più significative rispetto ai bit classici. Grazie a questo nuovo modo di descrivere la realtà (che esula da qualsiasi analisi convenzionale in cui trovano spazio solo i concetti di forza ed energia), ovvero grazie alla teoria dell’informazione, si è riusciti a far luce su vari misteri rimasti per lungo tempo irrisolti (nel campo della meccanica statistica, ad esempio, si è riusciti a risolvere il famoso paradosso del “demone di Maxwell”).
Per il solo fatto di esistere, tutti i sistemi fisici memorizzano informazione e la elaborano evolvendo dinamicamente nel tempo. Dunque l’intero Universo si può considerare come un immenso e sconfinato computer quantistico. Qui apro una piccola parentesi tecnica:
Il numero di bit codificabili in una regione limitata, è paragonabile al numero di stati quantistici possibili in tale regione. Il limite di Bekenstein determina il limite fondamentale al numero degli stati quantistici possibili in una regione limitata. Se l’informazione I è legata al numero degli stati possibili N dall’equazione: I=lnN/ln2 (dunque il valore dell’informazione è pari al logaritmo in base 2 di N), allora il limite di Bekenstein alla quantità di informazione codificata all’interno di una sfera di raggio R e di energia totale E vale:
I < 2πER/(ħcln2); dove I è l’informazione espressa in numero di bit, ħ “tagliata” è la costante di Planck ridotta (ovvero h/2π), c è la velocità della luce e ln2 è il logaritmo naturale di 2. Il limite di Bekenstein è in sostanza una versione relativistica del principio di indeterminazione di Heisenberg, espressa nel linguaggio della teoria dell’informazione, ed è una conseguenza dei postulati di base della teoria quantistica dei campi (QFT). Chiusa parentesi.
Circa quindici anni fa, nel suo libro “Il programma dell’universo”, Seth Lloyd affermava che: “Ogni singola molecola, ogni atomo, ogni particella elementare registra bit di informazione. Le interazioni tra questi frammenti di universo cambiano i rispettivi bit e quindi modificano l’informazione: in altre parole, l’universo computa. E siccome il suo comportamento è regolato dalle leggi della meccanica quantistica, l’universo calcola in modo quantomeccanico e i suoi bit sono bit quantistici. La storia dell’universo non è che un lungo, continuo, gigantesco calcolo quantistico. (…) Ma cosa calcola l’universo? Sé stesso, o meglio la sua evoluzione. Fin dalla sua nascita, l’universo non ha mai smesso di calcolarsi. I primi risultati erano molto semplici: le particelle elementari, le leggi fondamentali della fisica. Con il passare del tempo, aumentava la quantità di informazione elaborata e di conseguenza anche la complessità dei prodotti della computazione: galassie, stelle, pianeti. La vita, l’uomo, il linguaggio, la società, la cultura sono tutti fenomeni che devono la loro esistenza alla capacità intrinseca della materia e dell’energia di elaborare informazione. Il fatto che l’universo sappia calcolare spiega uno dei grandi misteri della natura: come sia possibile che da un insieme di semplici leggi fisiche, si generino sistemi complessi, tra cui gli esseri viventi”.
Quando pensiamo alla capacità computazionale dell’universo, dobbiamo tuttavia essere consapevoli che essa è relativa solo a quella parte di universo a noi nota, delimitata dall’orizzonte cosmico (dunque interna a tale orizzonte). L’informazione elaborata al di fuori di questa regione, non può influire sui calcoli effettuati all’interno a partire dal Big Bang fino ad oggi (in termini di spazio). Rimane comunque il fatto che, con l’ampliarsi dell’orizzonte cosmico (a causa dell’espansione dell’universo), i corpi celesti più lontani che riusciamo ad osservare e le cui immagini rappresentano una realtà antica risalente a circa 14 miliardi di anni fa, in realtà oggi distano dalla Terra più di 42 miliardi di anni luce! Tenendo conto che la densità media dell’universo conosciuto è di un atomo di idrogeno per metro cubo, con opportuni calcoli, scopriamo che nell’universo ci sono circa 10^71 Joule di energia. Applicando il teorema di Margolus-Levitin[1] a tale quantità di energia, otteniamo il seguente risultato: l’attuale universo, è in grado di eseguire 10^105 operazioni al secondo! (dopo aver eseguito, durante i suoi primi 14 miliardi di anni di vita, circa 10^122 operazioni elementari su 10^92 bit). Ma veniamo alla seconda parte di questo articolo.
Come abbiamo visto l’universo può essere considerato come un immenso computer quantistico che continua, da miliardi di anni, a “calcolare sé stesso”. Tuttavia, esso contiene delle entità fisiche che per certi versi, potrebbero essere considerate come le forme più “esotiche” del principio generale secondo cui l’universo registra ed elabora informazione: i buchi neri. Verso la fine degli anni Novanta del secolo scorso, L.Susskind, J.Preskill e G.t’Hooft, dimostrarono che la radiazione uscente dai buchi neri (la cosiddetta radiazione di Hawking) non è casuale, ma è una forma rielaborata della materia in ingresso (di ciò, Hawking si convinse solo nel 2004, dopo aver sostenuto per più di trent’anni che la radiazione in questione, non trasporta informazione su ciò che è entrato nel buco nero ed è dunque puramente casuale. Affermando in seguito di aver commesso, in tale contesto, il più grande errore della sua vita). Dunque, se l’informazione può sfuggire dai buchi neri (come ritiene attualmente la maggior parte dei fisici teorici), anche un buco nero è un computer; e la dimensione del suo spazio di memoria è proporzionale al quadrato della velocità di elaborazione[2] (l’aspetto più significativo di tale risultato, è che esso conduce direttamente al principio olografico, secondo il quale il nostro universo apparentemente tridimensionale, sarebbe in realtà …bidimensionale! Prendendo in considerazione le leggi di Bekenstein, scopriamo infatti che la massima quantità di informazione che una qualsiasi regione dello spazio può contenere, è proporzionale non al suo volume, bensì alla sua area di superficie). Tale capacità computazionale è dovuta alla natura quantomeccanica dell’informazione; in assenza di effetti quantistici, un buco nero non elaborerebbe l’informazione, ma la distruggerebbe (come riteneva erroneamente Hawking, già negli anni Settanta del secolo scorso). Se proviamo ad immaginare un buco nero costituito da un chilogrammo di massa in un volume di raggio pari a 10^-27 metri, esso in teoria avrebbe una velocità di clock di 10^35 Hertz e una memoria pari a 10^16 bit. La capacità di memoria totale di un buco nero è proporzionale all’area della sua superficie. Tutta la materia che precipita in un buco nero scompare per sempre; tuttavia, durante la sua “caduta” tutte le particelle che la costituiscono interagiscono l’una con l’altra eseguendo operazioni di calcolo per un tempo finito. In seguito, i dati in uscita assumono l’aspetto della radiazione di Hawking. Un buco nero di un chilogrammo emette questa radiazione e per conservare energia, riduce la massa, scomparendo in appena 10^-21 secondi. La lunghezza d’onda di picco della radiazione è pari al raggio del buco nero (per un buco nero di un chilogrammo, corrisponde a raggi gamma di estrema intensità; un rivelatore di particelle potrebbe teoricamente captare questa radiazione e decodificarla). Il tasso a cui i buchi neri emettono radiazione è inversamente proporzionale alle loro dimensioni, per cui i buchi neri massicci come quelli situati nel centro delle galassie, perdono energia molto più lentamente di quanto “assorbano” materia.
Attualmente, le teorie su come si potrebbe decodificare la radiazione di Hawking, sono molteplici e in questi ultimi venti anni, ci hanno lavorato sopra fisici del calibro di Gary Horowitz, Juan Maldacena, Anton Zeilinger, Andrew Strominger, Cumrun Vafa e Leonard Susskind. Tuttavia, a tutt’oggi, non vi è ancora una risposta definitiva a tale problema. Ma le più grandi menti della fisica, di certo non disperano e non demordono, forse inconsciamente o consciamente convinti che, per dirla con Galileo: “Dietro ogni problema, c’è sempre un’opportunità da cogliere”.
Fausto Intilla, 21.01.2020
[1] Il teorema di Margolus-Levitin è correlato al principio di indeterminazione di Heisenberg, che descrive le imprecisioni intrinseche nella misurazione di grandezze fisiche come posizione e quantità di moto o tempo ed energia. Tale teorema afferma che il tempo “t” occorrente per invertire un bit dipende dalla quantità E di energia che si applica. Quanto più questa è elevata, tanto minore può essere il tempo.
[2] La costante di proporzionalità è Gh/c^5; che dimostra matematicamente il legame tra l’informazione e le teorie della Relatività Speciale (velocità della luce c), della Relatività Generale (costante gravitazionale G) e della meccanica quantistica (costante di Planck h).