Dimensioni parallele:

2042254-upUna dimensione parallela o universo parallelo (anche realtà parallela, universo alternativo,dimensione alternativa o realtà alternativa) è un universo (nel senso scientifico del termine, nella stragrande maggioranza dei casi immaginati identificabile con un altro continuum spazio-temporale) ipotetico separato e distinto dal nostro ma coesistente con esso. L’insieme di tutti gli universi paralleli è detto multiverso. Alcune teorie cosmologiche e fisiche dichiarano l’esistenza di universi multipli, forse infiniti, in alcuni casi interagenti, in altri no. Così come il viaggio nel tempo, il passaggio in una o più dimensioni parallele è un tema classico della fantascienza. Una realtà parallela, nell’ambito della fantascienza e del fantastico, è chiaramente un espediente che lascia infinite possibilità, poiché se nella nostra realtà certe cose si sono evolute in altre, in quella parallela potrebbe non essere successo così. L’invenzione di trame basate su una linea storica alternativa ha dato origine al genere distinto dell’ucronia; in tale filone non è generalmente contemplata la compresenza di più dimensioni, seppure con qualche eccezione (vedi La svastica sul sole di Philip K. Dick). A volte il tema della dimensione parallela si lega a quello del viaggio nel tempo, a causa dei paradossi che quest’ultimo può generare. Una delle teorie sugli universi paralleli più citate dai fisici moderni è l’interpretazione dei “molti mondi” della meccanica quantistica, proposta da Hugh Everett III nel 1956. Uno dei maggiori sostenitori della teoria è il fisico David Deutsch, dell’università di Oxford.

Interpretazione a molti mondi della meccanica quantistica:

L’interpretazione a Molti Mondi della Meccanica Quantistica (abbreviata spesso in MWI, Many Worlds Interpretation) è una delle strade nate per dare una spiegazione al significato ultimo della Meccanica quantistica. L’interpretazione in questione ha visto la luce nel 1957 ad opera del fisico Hugh Everett III e da allora ha incontrato momenti di forte risonanza, così come momenti di totale oblio. Va detto che fino a non molto tempo fa (e per certi aspetti ancora oggi) questa idea era bollata dai più dal marchio del “troppo assurda per essere vera”. Basta pensare, ad esempio, che nella maggior parte dei testi di base alla meccanica quantistica, questo argomento non è non diciamo trattato, ma neppure sfiorato, per di più presentando l’interpretazione “classica” – detta solitamente interpretazione di Copenhagen – come se fosse l’unica e sola possibile.

Negli anni ’20 a coloro che si possono a buon merito definire i pionieri della teoria quantistica, si presentava un dilemma tutt’altro che banale: se davvero ogni sistema fisico è completamente determinato da un vettore in uno spazio di Hilbert (e questo è il postulato di base della Meccanica Quantistica), allora anche combinazioni lineari di vettori sono “buoni” stati per un sistema; questo non è altro che il principio di sovrapposizione, che è lungi dall’essere messo in discussione, data l’enorme mole di riscontri sperimentali che ha avuto nel corso dei decenni. Tuttavia, se è valido questo principio allora perché in natura si osservano solo stati definiti e mai strane combinazioni di stati? Fu lo stesso Schrödinger che per primo espresse il problema: se oggetti microscopici come elettroni possono stare in combinazione di diversi stati perché non dovrebbe essere così anche per quelli macroscopici? Dopotutto basta pensare ad un qualsiasi evento “puramente quantistico”, ad esempio il decadimento di uno stato metastabile, che ne influenzi uno “classico” come la morte o meno di un gatto. Il celebre esperimento mentale del gatto di Schrödinger ci pone davanti agli occhi il problema in tutta la suo ovvietà. La “ricetta” per uscire da questa impasse è l’interpretazione di Copenhagen: la misura, l’atto dell’osservatore “rompe” l’evoluzione dinamica quantistica (guidata dall’equazione di Schrödinger) e causa il collasso dello stato quantistico: l’osservatore vedrà uno stato definito per il sistema (il gatto vivo o morto) e non una combinazione di stati perché la misura ha proiettato il sistema in uno stato specifico. Quale sia lo stato in cui il sistema collassa è noto solo probabilisticamente, secondo quanto suggerito per primo da Max Born. Una volta aggiunto questo postulato, si elimina il problema del perché la natura “sembri classica”. Fin qui nulla di nuovo dato che quella che si è brevemente descritta è l’interpretazione “ortodossa”. L’idea di Everett parte da una premessa davvero semplice: in effetti si tratta semplicemente di rimuovere il postulato del collasso quantistico. Quello che potremmo chiamare il postulato di Everett (anche se in realtà è più un non-postulato) si può enunciare banalmente: tutti i sistemi isolati evolvono secondo l’equazione di Schrödinger. Questo postulato riproduce esattamente le stesse previsioni, per un’operazione di misura, dell’interpretazione di Copenhagen.

Tuttavia va ammesso che, una volta digerito lo stupore che inizialmente si prova di fronte alle conseguenze della MWI, la teoria è senza dubbio di un’eleganza e semplicità sorprendenti. È opportuno sottolineare che l’interpretazione di Everett riproduce esattamente le stesse previsioni di quella ortodossa. Il probabilismo intrinseco nella prescrizione di Born e della scuola di Copenhagen (il “Dio che gioca a dadi” di Einstein) viene rimpiazzato da un comportamento che apparentemente è probabilistico, ma intrinsecamente è perfettamente deterministico: ogni osservatoredopo una misura è ignaro dei suoi alter ego e di quello che hanno percepito: dal suo punto di vista la Natura è casuale. Dal punto di vista esterioreinvece – cioè da un punto di vista che prescinde dall’osservatore medesimo – prima della misura si è perfettamente in grado di dire quel che accadrà, semplicemente applicando l’evoluzione alla Schrödinger.

Evidentemente la faccenda non è esaurita qui, in effetti viene naturale chiedersi perché in Natura si osservino sempre macrostati che sono autostati dell’operatore posizione o impulso e non invece autostati di altri operatori. Questo è un problema serio della teoria quantistica, che in realtà non è peculiare della sola MWI, ma è di più ampio respiro. Solo recentemente si è trovato che esiste un meccanismo noto come decoerenza quantistica, che sembra dare una risposta netta ed elegante alla questione. Ma questo non è l’unico “intoppo”. Ad esempio si è detto che la MWI è una teoria deterministica al contrario della meccanica quantistica “ortodossa”. Questo è tecnicamente esatto, ma se lo si analizza più da vicino si comprende che, in fin dei conti, non cambia nulla: la MWI è deterministica solo dal punto di vista della funzione d’onda universale, ossia per un ipotetico osservatore che potesse seguire l’evoluzione di tutti i mondi; per un osservatore reale però la teoria ha la stessa indeterminazione a cui ci ha abituati la Meccanica quantistica. Tuttavia a questa osservazione si può rispondere che le due indeterminazioni non sono proprio uguali: quella dell’interpretazione di Copenhagen è ontologica essendo parte stessa della natura, quella dell’interpretazione a molti mondi e invece solo gnoseologica, poiché è un’indeterminazione solo ciò che noi sappiamo. Un altro problema piuttosto evidente è che l’interpretazione non risponde alla domanda importante sul meccanismo fisico secondo il quale i mondi si diramerebbero, e neppure spiega come questo possa essere in accordo con principi altamente condivisi come la conservazione dell’energia ecc… Ci sono inoltre numerosi altri “problemi tecnici” e anche di natura più “filosofica” che rendono questa interpretazione (come tutte le altre) non universalmente accettata dalla comunità scientifica. Si veda la bibliografia per spunti di approfondimento.

—————————————————————————————————————————————

Viaggio nel Tempo:

2042255-orologio_3Il viaggio nel tempo è l’ipotetico spostamento tra diverse epoche temporali, verso il passato o il futuro. Per “visualizzarlo” si usa comunemente l’analogia dello spostamento su un filo, una linea che rappresenta il tempo nella sua totalità. Alcune teorie scientifiche consentono, ad oggi, il viaggio nel tempo, ma solamente attraverso condizioni estreme impossibili da realizzare con le tecnologie attuali. La teoria della relatività prende in esame il fenomeno della dilatazione del tempo, registrabile soprattutto da osservatori che si spostino a velocità prossime a quella della luce (299.792.458 m/s), fenomeno verificato da numerosi esperimenti e che sembrerebbe lasciare la porta aperta all’ipotesi dello spostamento nel futuro (vedi Curve chiuse di tipo tempo). Ma bisogna notare come tale viaggio nel futuro non ha probabilmente nulla in comune con l’idea dei viaggi nel tempo usata nella fantascienza. Il viaggio nel tempo nella narrativa e nell’immaginario collettivo viene utilizzato come espediente in tutt’e due i modi in cui può avvenire: verso il futuro a velocità notevolmente accresciuta, o indietro fino ad un’epoca precedente. Il concetto di viaggio nel tempo è un’idea che affascina da tempi immemorabili l’umanità, ed è presente in svariati miti e tradizioni religiose, che sia mago Merlino a sperimentare delle regressioni temporali, o Maometto in viaggio a Gerusalemme che ascende al Paradiso ritornando prima che un bicchiere spezzato abbia versato il suo contenuto. È da tener conto che, dato il naturale evolvere del presente verso l’immediato futuro, tutti gli esseri viventi viaggiano comunque già di per sé attraverso il tempo, inesorabilmente dal concepimento fino alla completa disgregazione dell’organismo (ovviamente morto).

La macchina del tempo “classica” a cui il cinema e le storie di fantascienza ci hanno abituato è solitamente rappresentata come un qualche veicolo o apparecchio dalle dimensioni di una piccola stanza: si entra, si configurano i parametri di viaggio e si aziona il dispositivo: dopo pochi secondi si può uscire e ci si ritrova nell’epoca voluta. Qualora ciò fosse possibile, non sarebbe tuttavia sufficiente. Il pianeta Terra infatti occupa, secondo per secondo, una posizione diversa lungo l’orbita intorno al sole: a sua volta, il sole orbita intorno al centro galattico e così via. In conclusione, un viaggio nel tempo così concepito dovrà necessariamente essere anche un viaggio nello spazio, altrimenti il crononauta si ritroverebbe sperduto nel vuoto spaziale al momento dell’arrivo. Nel campo della fisica, l’esperimento ideale del viaggio nel tempo è talvolta usato per esaminare le conseguenze di teorie scientifiche come, ad esempio, la relatività speciale, la relatività generale e la meccanica quantistica. È stato ampiamente approvato con prove sperimentali che lo scorrere del tempo non esiste come tempo assoluto: infatti, come previsto dalla relatività ristretta, lo scorrere del tempo è differente per osservatori che siano in moto uno rispetto all’altro.

– Alle velocità infraluminali, al di sotto della soglia della velocità della luce nel vuoto, esistono corpi dotati di masse, sia a riposo che accelerata, superiori a zero: tali corpi possono muoversi avanti ed indietro nello spazio ma non nel tempo (nel nostro “universo” la direzione del tempo è preordinata e corre dal “passato” al “futuro”).

– Alla velocità della luce, lo spazio ed il tempo si annullano: il fotone, dotato di massa a riposo ed accelerata quasi nulle può muoversi a questa fantastica velocità in quanto virtualmente privo di inerzia. Esso si trova contemporaneamente dappertutto ed in un eterno presente. Un corpo dotato di massa superiore a quella del fotone non può raggiungere la velocità della luce, in quanto, come compendio della legge einsteniana dell’equivalenza tra materia ed energia (E = mc2), tutta l’energia fornita per accelerare il corpo massivo a velocità prossime a quelle luminali viene convertita automaticamente in materia andando, in ultima analisi, a massificare ulteriormente il corpo stesso, accrescendone l’inerzia, il che richiede ulteriore energia per accelerarlo (in pratica si crea un circolo vizioso in cui l’energia non accelera più il corpo ma addirittura ostacola il movimento del corpo stesso incrementandone la massa, in quanto convertita in materia).

– A velocità sopraluminali, invece, l’ipotetico corpo dovrebbe possedere soltanto una massa virtuale, sia a riposo che accelerata. A questa ipotetica particella è stato attribuito il nome di “Tachione“. Esso si muoverebbe in uno spazio ancora nullo (in realtà, dovrebbe muoversi in uno spazio negativo, il che non ha senso) ed in un tempo “invertito”. Praticamente, non sarebbe libero di muoversi nello spazio, e la sua successione temporale andrebbe dal futuro al passato, paradossale solo per la nostra esperienza quotidiana, ma non per la fisica. Nel “mondo sopraluminale”, in pratica le conseguenze precederebbero la causa generante; l’effetto precederebbe la causa. Anche il secondo principio della termodinamica verrebbe ad esser invalidato: ad esempio vedremmo i cocci di vetro ricomporsi e generare un bicchiere; oppure un cadavere riprendere vita e ringiovanire fino al momento del concepimento.

Da notare a questo proposito che la teoria einsteniana non vieta le velocità superiori a quella della luce. Essa vieta il raggiungimento della velocità della luce per un corpo massivo, ma non vieta il superamento di questo estremo limite. Sappiamo, dalla relatività ristretta, che il tempo rallenta in un sistema di riferimento in movimento. In altri termini, più un oggetto si sposta velocemente rispetto ad un altro (perché è minore la differenza tra la velocità del corpo in movimento e la velocità massima relativa, cioè la velocità della luce), più il tempo per il primo oggetto passa più lentamente rispetto al secondo, spostando in pratica il primo nel futuro del secondo. La possibilità realmente offerta dalle due grandi teorie relativistiche di Albert Einstein permettono di sperimentare quasi ordinariamente già oggi piccoli viaggi nel tempo. Nella pratica, ponendo un orologio di precisione su di un mezzo ad alta velocità, tipicamente un velivolo, è normale riscontrare una discrepanza con il rispettivo orologio di riferimento precedentemente sincronizzato, posto ad esempio sulla pista, dimostrando evidentemente che l’orologio spostatosi ad alta velocità dal suo riferimento ha viaggiato qualche frazione di secondo nel futuro dell’orologio posto a terra. A tale proposito dobbiamo pensare che la “velocità” con cui scorre localmente il tempo in un sistema in quiete è di 1 secondo (del sistema di riferimento) al secondo (del sistema locale che coincide col riferimento). Nel precedente esempio sul velivolo il tempo scorre a più di 1 secondo al secondo (sempre tra tempo locale e tempo del sistema di riferimento che non coincidono) in quanto sul mezzo in movimento la dimensione temporale è allungata (mentre quella spaziale si accorcia) provocando un lievissimo balzo in avanti nel tempo riscontrabile da evidenze strumentali sperimentali, ma non dalla mente umana.

Per viaggi temporali riscontrabili dall’esperienza umana, tali teorie ci dicono che, se un corpo è soggetto ad una velocità (commensurabile con quella della luce nel vuoto) oppure a campi gravitazionali significativi (come in prossimità di un buco nero o di una stella di neutroni), il tempo ne viene enormemente influenzato nel suo scorrere, fino ad arrivare a fermarsi per un osservatore (orizzonte degli eventi). In prossimità dell’orizzonte degli eventi, lo scorrere del tempo verrebbe arrestato solo per colui che si trovasse proprio sull’orizzonte medesimo, ovvero sul confine tra il nostro universo “familiare” e l’universo chiuso (una sorta di “punto di non – ritorno”) che si trova oltre l’orizzonte e che termina sulla singolarità (“collapsar“) implosa e collassata che genera l’orizzonte e gli effetti fisici e relativistici associati al buco nero. Per semplificare il concetto, praticamente, un astronauta che si trovasse sul confine delineato dall’orizzonte degli eventi si muoverebbe in modalità sincrona col ruotare dell’orizzonte e vedrebbe ogni oggetto al di là dell’orizzonte come se fosse in un eterno presente: un oggetto che dovesse cadere nel buco nero avrebbe un tempo nullo per l’osservatore posto sull’orizzonte degli eventi, che mai lo vedrebbe, per tutta l’eternità, ed un tempo suo proprio, talmente accelerato da esser incompatibile con lo stato della materia ordinaria, che lo schianta in una frazione di secondo sulla singolarità stessa. Da questo concetto ne consegue che non soltanto la materia (perché la collapsar generante il buco nero non può fisicamente esser costituita da materia ordinaria) può influenzare lo spazio-tempo, bensì anche le concentrazioni massive d’energia, il che è plausibile, essendo la materia una forma particolare d’energia, in base alla teoria einsteniana.

Per capire un po’ meglio questo concetto assolutamente poco intuitivo dobbiamo infatti raffigurarci lo spaziotempo (o “cronotopo”, mutuando il termine dalla geometria) come un telo perfettamente elastico, ben tirato, increspato in qualche punto da alcuni gravi (curvatura spaziotemporale). La gravità è rappresentata dalla deformazione di questo telo che flette, ad esempio, nei dintorni della massa di una stella, proprio come farebbe una palla da biliardo su un telo elastico. Il tempo può essere visto invece come l’inclinazione di questo tessuto, che in prossimità delle infossature si accentua (si dilata e si allunga) mentre come accade nel tessuto, lo spazio tra un punto e l’infossatura si accorcia (e diminuisce), tanto più quanto più la massa è pronunciata . Un’estensione di questa teoria porta ad ipotizzare che lo stesso spazio-tempo non sia un qualcosa di unitario, come da noi percepito, bensì un’entità “discreta”, ovvero composta da quanti, esattamente come tutta la materia e l’energia: a livello ultramicroscopico, pertanto, esisterebbero dei quanti non ulteriormente divisibili di spazio-tempo e lo scorrere del tempo rappresenterebbe solo una nostra illusione ottica. Il divenire, pertanto, altro non sarebbe che lo spostamento tra quanti contigui di spazio-tempo. Anche la nostra esistenza sarebbe dettata da questa regola: ogni quanto di spazio tempo può contenere o meno una copia di ciascuno di noi: se non la contiene si tratta del periodo anteriore alla nascita o posteriore alla morte. Se la contiene, invece, ogni quanto conterrà una nostra copia in un dato “istante” temporale, cosicché la durata della “nostra vita” altro non sarebbe che la sequenza precisa, ordinata, accurata e lineare di singoli quanti spaziotemporali contenenti una copia di noi in una data “epoca”. Ovviamente, a livello macroscopico, essa viene da noi interpretata come un divenire dalla nascita alla morte, ovvero quello che chiamiamo “Vita”.

Una macchina del tempo tecnologica che viaggi nel futuro potrebbe perciò funzionare accorciando lo spazio e dilatando il tempo, che ad esso è relativo, procedendo a velocità astronomiche, oppure potrebbe piegare la struttura dello spaziotempo creando l’increspatura da cavalcare come una tavola da surf sull’onda. Ad oggi comunque non si conosce un modo né per accelerare a tali velocità, né per piegare lo spaziotempo, ma non appaiono problemi insormontabili. I buchi neri in veste di “macchine del tempo” naturali non sono facilmente sfruttabili per vari motivi. Vediamo i più immediati:

– Di buchi neri ne esistono tanti, di dimensioni estremamente variabili. Il problema principale è quello di andarsi a collocare presso l’orizzonte degli eventi senza esserne inghiottiti. Ma gli effetti gravitazionali del buco nero si fanno sentire anche prima di giungere all’orizzonte stesso, e non è facile quantificare la massa della singolarità centrale da cui dipende l’area coperta dall’orizzonte ed il volume del buco nero medesimo. Basta un’inezia nel calcolo e l’effetto sarebbe davvero poco piacevole per gli sperimentatori.

– Come macchina del tempo un buco nero sarebbe limitato, nel senso che potrebbe portare indietro nel tempo uno sperimentatore non oltre il momento della sua formazione.

– Se il buco nero fosse di tipo “non rotante” – e nessuno lo può sapere a priori – non ci sarebbe verso di attraversare indenni l’orizzonte degli eventi: il verso preso sarebbe inevitabilmente diretto sulla singolarità centrale, dopo esser stati ridotti ad una stringa monodimensionale per ipercompressione a densità infinita.

– Questo discorso vale solo in parte nel caso d’un buco nero rotante. Durante gli anni sessanta il matematico neozelandese Roy Kerr scoprì che lo schianto sulla singolarità può anche non avvenire se il buco nero è rotante. In questo caso, si forma pur sempre una singolarità, ma sotto forma di anello toroidale e non come punto adimensionale, come il biscotto col buco al centro. In via di principio sarebbe possibile immergersi in un buco nero di questo tipo e passare attraverso l’anello per emergere in un altro luogo ed in un altro tempo, forse in un universo parallelo, purché la direzione d’incontro col buco nero rispetti un certo angolo d’incidenza. Questa “soluzione Kerr” è stato il primo esempio matematico di macchina del tempo, Negli annì ottanta, comunque, Kip Thorne, del CalTech (uno dei principali esperti al mondo sulla teoria generale della relatività) ed i suoi colleghi si misero a provare una volta per tutte che tali sciocchezze non erano ammesse realmente dalle equazioni di Einstein. Studiarono la situazione da tutte le parti ma furono costretti alla conclusione non tanto gradita che non c’era realmente nulla nelle equazioni che vietasse il viaggio nel tempo ammesso che si abbia la tecnologia per manipolare i buchi neri (e questa è una grossa clausola restrittiva).

– Nessun candidato buco nero si trova nei nostri paraggi.

– Oggigiorno non esistono tecnologie atte a generare buchi neri artificiali in laboratorio.

I fisici Paul Davies (vedi Bibliografia), Kurt Gödel, Frank Tipler e J. Richard Gott III hanno proposto delle metodologie ideali (ossia non realizzabili nella pratica) per costruire una macchina del tempo. Descriveremo brevemente le macchine del tempo di Gödel, di Tipler e di Gott. La prima è basata sull’ipotesi di un universo chiuso in rotazione, dove muovendosi a velocità prossime a quella della luce si potrebbe raggiungere ogni istante di tempo dell’universo semplicemente viaggiando continuamente sempre in una stessa direzione. Quella di Tipler è una variante di questa che però si basa sull’esistenza di un corpo materiale e non utilizza dunque l’intero universo come nel precedente esempio: un ipotetico cilindro rotante di massa esorbitante (si parla di miliardi di masse solari), ma di densità inferiore a quella necessaria perché si trasformi in un buco nero, creerebbe un attrazione gravitazionale tale da far sì che un corpo che si muova intorno ad esso a velocità elevatissime anche se non necessariamente prossime a quella della luce si sposti nel passato o nel futuro, a seconda che si muova nel verso opposto o uguale a quello della rotazione del cilindro. Questo modello pone però due importanti limitazioni: non si può andare in un passato precedente la creazione del cilindro, e non si può andare in futuro successivo la sua distruzione. Il modello matematico, inoltre, presuppone un cilindro infinitamente lungo, e non è ancora chiaro se questa condizione sia necessaria per il viaggio nel tempo. Un altro modello di macchina del tempo è stato proposto da Gott, e si basa sul fatto che la forza di gravità dei corpi massivi influenza lo scorrere del tempo. In breve, il modello prevede di usare Giove per creare una sfera cava, all’interno della quale porre il “crononauta”. Da calcoli fatti, il campo gravitazionale della sfera cava (generata dalla massa di Giove fortemente compressa) rallenterebbe il tempo di un numero variabile di volte (massimo quattro) a seconda della densità della sfera, che deve essere sempre superiore a quella necessaria per la contrazione in un buco nero. Le principali tecnologie ipotetiche o in corso di studi per poter progettare viaggi nel tempo sono:

Wormhole (passato e futuro, non si avrebbe alcuna dilatazione temporale)

Velocità della luce raggiunta (quasi) attraverso reazioni materia/antimateria (futuro attraverso effetto di dilatazione temporale di Albert Einstein)

– Forza di gravità (futuro attraverso effetto di dilatazione temporale di Einstein)

Vari esperimenti realizzati nel corso degli ultimi dieci anni danno l’impressione di un effetto retrogrado, ossia di un viaggio nel tempo verso il passato, ma sono interpretati in modo diverso dalla comunità scientifica. Ecco alcuni esempi: l’esperimento di Marlan Scully (che è ispirato alparadosso EPR e richiede l’utilizzo di fessure di Young) lascia supporre che su scala quantica una particella nel futuro determini il suo passato. Secondo alcuni, questo mette semplicemente in evidenza le difficoltà di qualificare la nozione di tempo all’interno della scala quantica; in ogni caso, quest’esperimento non costituisce una violazione della causalità. Si è potuto registrare che nell’esperimento del fisico Lijun Wang, l’invio di pacchetti di onde attraverso una lampada al cesio a cX310 ha avuto come conseguenza l’uscita dei pacchetti di onde stessi 62 nanosecondi prima della loro entrata. Alcuni scienziati ritengono però che questo sia semplicemente dovuto ad un effetto d’ultra-rifrazione, e avanzano l’obiezione che questi pacchetti di onde, non essendo oggetti costituiti da particelle ben definite, non possono trasportare né energia né informazione dei futuri eventi, per cui non è possibile confermare in modo esaustivo che arrivino dal futuro. Infine, il programma “Effetto STL” effettuato dal medicoRonald Mallett ha lo scopo ufficiale di osservare una violazione della causalità mediante il passaggio di un neutrone attraverso un cristallo fotonico che rallenta la luce. Si è potuto constatare che il neutrone riappare nel dispositivo prima di essere disintegrato. La relazione è uscita nel novembre2006 e beneficia del sostegno di molte università degli Stati Uniti. Il teletrasporto e il viaggio temporale sono temi collegati, che presuppongono la copertura di enormi distanze nello spazio piuttosto che nel tempo. Le tematiche del viaggio nel tempo e nello spazio vengono a essere in stretta relazione, per almeno due ragioni:

– secondo la relatività generale, spazio e tempo sono parte di un continuo a quattro dimensioni,

– i ponti di Einstein-Rosen sono una costruzione fiscia e matematica che descrive sia un collegamento fra due punti arbitrariamente distanti nello stesso universo, che fra lo stesso punto in due universi paralleli, che possono distare arbitrariamente nel tempo.

La massa che è oggetto del teletrasporto può comparire nel punto di arrivo in un tempo superiore a quello che impiegherebbe muovendosi alla velocità della luce, rispettando il limite teorico imposto dalla relatività generale. Esiste però una variante del teletrasporto che presuppone di collegare due punti a velocità inferiori a quella della luce, riproducendo l’informazione della massa nel punto di arrivo. La possibilità di superare in qualche modo la velocità della luce, senza violare la relatività generale. La realizzazione di un viaggio nel passato o nel futuro, oltre ai problemi teorici,presenterebe notevoli difficoltà tecniche. Secondo le teorie che ammettono la possibilità di un viaggio nel tempo, come quella dei ponti di Einstein-Rosen, sarebbero necessaria una quantità enorme di energia, pari alla potenza elettrica mondiale.Alla difficoltà di produrre enormi quantità di energia, si aggiungono quella di produrla in tempi brevi di pochi minuti, in un solo sito (il luogo dell’esperimento), e di non disperderla su grandi distanze. L’alternativa alla produzione in un solo sito è quella di convogliare nel luogo dell’esperimento l’energia prodotta altrove da una moltitudine di centrali, tramite un numero opportuno di accumulatori ad alta capacità collegati in serie. L’energia sarebbe sottratta alla rete di distribuzione, con un apparente blackout elettrico. Le potenze in gioco sono simili a quelle che un’esplosione nucleare produce in pochi minuti. Onda d’urto e radiazioni di una bomba atomica, tuttavia, si disperdono a distanza di migliaia di chilometri e di anni. In base alla formula E=mc^2, 600 grammi di massa d’uranio possono infatti produrre un’energia pari a 9 . 10^10 Joule, per un tempo di 10 minuti (assumendo una velocità della luce pari a 300.000 km/sec.).

Esistono numerose speculazioni teoriche sui paradossi che potrebbero insorgere quando si ha a che fare con i viaggi nel tempo. Ad esempio, supponiamo che voi decidiate di utilizzare una macchina del tempo per tornare a fare visita a vostro nonno, nel passato. Il viaggio riesce vi trovate finalmente a tu per tu con vostro nonno, che però giovane e non si è ancora sposato con quella che diventerà, in seguito, la vostra nonna. Ebbene, mentre sbalordite il nonno con particolari che solo lui può conoscere della sua famiglia, ecco che egli si distrae e si dimentica dell’appuntamento con una bella ragazza che sarebbe potuta diventare sua moglie. La signorina, indispettita dal comportamento del giovanotto, non lo vuole più vedere. Ed ecco quindi che per colpa vostra il nonno non si sposerà più e di conseguenza voi stessi non sareste più potuti nascere; ma se non foste mai nati, come avreste potuto impedire ai nonni di incontrarsi? Tale paradosso è comunemente definito Paradosso del nonno. Un esempio di questo problema è rappresentato dai film della serie di fantascienza Ritorno al Futuro: il viaggiatore nel tempo, impedendo ai suoi genitori di incontrarsi, sarebbe dovuto scomparire dalla realtà in quanto mai nato. Questo tipo di paradosso è detto di “coerenza”. Il Paradosso del nonno è quello per cui l’ipotetico viaggiatore nel tempo incontra nel passato e uccide un proprio progenitore diretto (padre, nonno, etc.). In quel caso, l’esistenza stessa del viaggiatore sarebbe un incoerenza e pure la possibilità di un suo ritorno al presente, all’istante di tempo nel quale era partito il suo viaggio. Una situazione di incoerenza ancora maggiore si verificherebbe quando l’ipotetico viaggiatore nel tempo incontrasse, ed eventualmente uccidesse, sè stesso quando aveva un’età minore.

Un’altra variante di paradosso è quella proposta dal filosofo Michael Dummett. Un critico d’arte torna nel passato per conoscere quello che diventerà il più famoso pittore del futuro. Ebbene, questo pittore quando incontra il critico dipinge quadri in verità molto mediocri, ben lontani dai capolavori che il futuro potrebbe conoscere. Ed ecco quindi che il critico d’arte gli mostra delle stampe dei futuri capolavori. Il pittore ne è talmente entusiasta che glieli sottrae e li va a ricopiare. Nel frattempo, il critico d’arte si deve reimbarcare nella macchina del tempo per tornare alla sua epoca e lascia quindi le copie nel passato. La domanda è questa: considerando l’intera vicenda globalmente, da dove arriva, in definitiva, la conoscenza necessaria a creare i capolavori? dal pittore o dal critico d’arte? Nella fantascienza questo problema viene ad esempio ripreso nel filmTerminator con i suoi seguiti: il microchip che sta alla base tecnica degli androidi che vengono sviluppati è copiato da un androide che ha viaggiato nel tempo.

Un altro paradosso è questo: supponiamo, di nuovo, che il viaggio nel tempo sia possibile e che un oggetto qualsiasi torni indietro nel tempo. Limitiamo l’infinita gamma di momenti passati in cui potrebbe tornare a quelli in cui l’oggetto già esisteva. Dal punto di vista dell’universo al momento di arrivo nel passato, la massa costituente l’oggetto comparirebbe praticamente dal nulla; la “copia ridondante” sarebbe dunque priva di passato. Ciò sembra inconcepibile in quanto violerebbe molte delle leggi fisiche (oltre che logiche) esistenti. Un esempio di questo problema è rappresentato dal film della serie di fantascienza Ritorno al Futuro 3: il 12 novembre 1955 si trovano contemporaneamemnte tre macchine del tempo: la De Lorean al plutonio che riporta Marty nel 1985 grazie al fulmine della Torre dell’orologio; la De Lorean volante guidata da Doc che colpito dal fulmine lo porta nel 1885, durante il vecchio West; e la De Lorean volante che Doc del 1885 ha lasciato nel vecchio cimitero abbandonato dei pistoleri.

Alcuni scienziati come i celebri Stephen Hawking e Roger Penrose ritengono che, qualora tentassimo in qualche modo di fare qualcosa in grado di mutare significativamente il passato, ad impedirlo interverrebbe una sorta di “censura cosmica”. Nell’esempio sopra esposto del “Paradosso del nonno“, la nostra voce potrebbe, secondo qualche meccanismo fisico ancora ignoto, affievolirsi o essere proprio il motivo per cui la conversazione tra il potenziale (a questo punto) nonno e la nipote potrebbe finire esattamente nel momento giusto, cosicché il nonno potrebbe essere puntuale all’appuntamento con la ragazza e tutto andrebbe al meglio. Un esempio di questo problema è rappresentato dal film di fantascienza L’esercito delle 12 scimmie: nonostante i viaggi a ritroso nel tempo non era possibile modificare il presente in quanto tutto ciò che faceva il viaggiatore era già accaduto e documentato nella storia. Egli poteva soltanto raccogliere informazioni nel passato per modificare il futuro agendo dal presente da cui proviene. Domande che sorgono partendo dalla censura cosmica sono: che ne sarebbe del libero arbitrio? E poi in che modo questa censura agirebbe? Come farebbe l’universo ad “accorgersi” che qualcosa non va e che c’è il rischio che un piccolo crono-vandalo provochi seri guai alla storia futura? E funzionerebbe con azioni drastiche come l’assassinio del nonno prima del suo matrimonio, o in maniera ancora più surreale, uccidendo sè stessi prima della partenza nel tempo?

Per evitare la bizzarra “censura cosmica” si può utilizzare una teoria quantistica nota come “teoria a molti mondi” che fu proposta nel 1956 da Hugh Everett III. Questa teoria ci dice che ci sono tante copie del nostro mondo quante sono le possibili variazioni quantistiche delle particelle che lo compongono. Ne risulterebbe dunque un numero altissimo di mondi (o dimensioni) paralleli. Per chiarirci le idee pensiamo ad un elettrone che ruota intorno ad un protone nell’atomo di idrogeno. Tale elettrone – secondo la meccanica quantistica – non ha un valore dell’energia ben determinato, ma si può solo dire che quella energia sarà contenuta in un certo set di valori con una certa distribuzione di probabilità: l’impredicibilità della natura a livello quantistico è una caratteristica intrinseca. Ebbene, secondo la teoria a molti mondi, per ogni livello di energia dell’elettrone esiste un differente universo; lo stesso per tutte le altre particelle. Quindi, nelle variazioni più evidenti, ci saranno mondi in cui il nonno si sposa con la nostra nonna e mondi in cui questo fatto non avviene più. Tornando al nostro ipotetico viaggio nel tempo, qualora facessimo perdere l’appuntamento al nonno approderemo in un mondo variante in cui “noi” non siamo mai nati, e quindi non si genererà alcun paradosso temporale grossolano. Ovviamente in questo caso ci si sposterà nelle dimensioni parallele e non nel tempo, e comunque rimane da spiegare quale sia il principio (e quali le forze) di carattere generale che ci permettano di scegliere l’universo “giusto”; in questo caso, però, sia il libero arbitrio che il principio di causalità sono salvi, anche se le varianti possibili sarebbero potenzialmente infinite. Questo problema nella fantascienza è trattato nel libro La fine dell’eternità di Isaac Asimov, nelle serie televisive I viaggiatori (Sliders) e In viaggio nel tempo (Quantum Leap), in alcuni episodi della serie Star Trek, nella serie di Matt Groening Futurama e nei manga Suzumiya Haruhi no Yuutsu e Dragon Ball Z solo per fare qualche esempio: il viaggiatore visita mondi possibili, anche coevi del presente, ma sempre con variabili parallele rispetto alla realtà, e spesso il malcapitato non riesce a ritornare al suo universo di partenza tra tutte le infinite possibilità.

Il viaggio nel tempo è un tema tipico della fantascienza, tanto che alcuni lo considerano un vero e proprio sottogenere. Ai giorni nostri, un meccanismo narrativo spesso utilizzato nella fantascienza e in molti film o serie televisive è quello di portare un personaggio in un particolare tempo a cui non appartiene, ed esplorare le possibili ramificazioni dell’interazione del personaggio con le persone e la tecnologia dell’epoca (una derivazione del campagnolo che va nella grande città, o viceversa). Questo espediente narrativo si è evoluto per esplorare le idee di cambiamento e le reazioni ad esso, ed anche per esplorare le idee di universi paralleli o ucronia dove alcuni piccoli eventi avvengono, o non avvengono, ma causano massicci cambiamenti nel futuro (a causa dell’effetto farfalla). Tra macchine del tempo più famose della fantascienza vi sono l’auto sportiva De Lorean della trilogia cinematografica di Ritorno al futuro e il TARDIS della longeva serie televisiva britannica Doctor Who ma anzitutto, come dice il titolo, la La macchina del tempo del romanzo di H. G. Wells del 1895. Il concetto di viaggio nel tempo applicato alla letteratura ed allasceneggiatura consente di sviluppare trame particolarmente elaborate ed avvincenti, con elementi ricorsivi, possibilità di analizzare evoluzioni parallele di un evento, colpi di scena estremi, come la riapparizione di personaggi scomparsi. Il viaggio avviene, a volte nel tempo a volte anche nello spazio, per mezzo di:

– Captare le onde sonore e visive lasciate tramite visori cronologici (cronovisore)

– Rotazione ad elevata velocità

– Apposite macchine del tempo

Wormhole, detto anche cunicolo spaziotemporale o tunnel spaziale

– Passaggio nel campo gravitazionale di corpi celesti

– Eventi non meglio precisati legati a fenomeni associati ad energia (fulmini ecc.)

In genere i personaggi viaggiano deliberatamente nel tempo, altrimenti possono essere trasferiti inconsapevolmente, creando situazioni di crisi da risolvere. In altre opere si ha il contatto con l’altra epoca/luogo, unidirezionale o bidirezionale, senza spostamento fisico dei protagonisti.

————————————————————————————————————————————

Il Teletrasporto:

2042256-teletrasporto01Per teletrasporto si intende il processo di trasporto più o meno istantaneo di un oggetto da un luogo a un altro, senza l’uso di mezzi convenzionali. Questo neologismo è un portmanteau derivato dalla radice greca “Τελε-” (“lontano”) e dall’italiano “trasporto”, sulla falsariga del termine inglese “teleportation” coniato dallo scrittoreCharles Fort (lo stesso prefisso “tele-” unito alle ultime sillabe di “transportation”, ossia trasporto). Come ipotetica tecnologia il teletrasporto è spesso utilizzato nelle opere di fantascienza, dove è generalmente usato come sinonimo di trasporto istantaneo, intendendo che il processo possa avvenire anche attraverso grandi distanze (es. tra la Terra e la Luna o un altro pianeta) e a velocità pari o superiori a quella della luce.

Il teletrasporto, così come descritto nelle opere di fantasia, è lungi dall’essere realizzato, tuttavia costituisce uno dei maggiori soggetti di ricerca tra i fisici di tutto il mondo che sono operativi nel campo della meccanica quantistica. Viene definito teletrasporto quantistico il fenomeno di apparente azione istantanea a distanza descritto dal paradosso Einstein-Podolsky-Rosen (detto anche “Paradosso EPR”, dalle iniziali dei nomi degli scienziati che lo scoprirono come aggiunta alla legge di Heisenberg). Secondo alcuni sarebbe erroneo considerare il fenomeno un “primo passo” verso una tecnologia del teletrasporto o dei viaggi a velocità superiori a quella della luce. In un esperimento condotto dal dr. Ping Koy Lam, e da un team di ricercatori, presso la ANU (Australian National University), è stato teletrasportato un raggio laser. Il risultato positivo dell’esperimento conferma la possibilità del teletrasporto, anche se il teletrasporto di un oggetto solido è certamente lungi dall’essere possibile. Il team australiano ha battuto sul tempo altri 40 laboratori che in tutto il mondo stanno provando a teletrasportare un raggio laser; infatti, un primo risultato incoraggiante fu ottenuto in California presso i laboratori del California Institute of Technology dal prof Jeff Kimble e dai suoi colleghi che furono in grado di teletrasportare luce allo stato quantico da un lato all’altro di un banco ottico, senza che essa attraversasse alcun mezzo fisico.
L’esperimento del prof Kimble mostrò che le strane connessioni tra entità del mondo quantico possono essere utilizzate per ottenere effetti assolutamente inimmaginabili per il mondo percepito dai nostri sensi. I risultati ottenuti con il progetto del gruppo di ricerca australiano sono stati presentati in una conferenza internazionale sulla elettronica quantica che si è tenuta a Mosca. La scoperta ottenuta può trovare applicazioni in molteplici campi: nelle comunicazioni permetterebbe di aumentare drammaticamente la velocità e le quantità di informazioni trasmesse mediante fibre ottiche; nella crittografia permetterebbe di criptare le informazioni con una sicurezza del 100% apportando così un enorme vantaggio per i sistemi finanziari, bancari e di difesa di tutto il mondo e nella computeristica permetterebbe lo sviluppo di computer che sarebbero in grado di operare e di risolvere problemi con una velocità milioni di volte maggiore degli attuali. L’Australian Research Council (ARC) ha supportato già dal1998 la ricerca condotta dal dr. Lam con circa 2 milioni di dollari, che comprende anche il finanziamento di 1.1 milioni di dollari del Gennaio 2002, inoltre, la ANU ha anche fornito un supporto logistico notevole mettendo a disposizione le sue infrastrutture ed un pool di valenti ricercatori e studenti. Nella cultura popolare, il teletrasporto viene utilizzato come elemento narrativo nella fantascienza (come forma di tecnologia futura) e nelfantasy (come atto di magia). La prima menzione di un sistema di teletrasporto in un’opera di fantascienza è nel racconto The Man Without a Body (1877) di David Page Mitchell, in cui uno scienziato scopre un metodo per disassemblare gli atomi di un gatto e trasmetterli via telegrafo.
Il concetto verrà poi ripreso nella fantascienza del primo Novecento (tra i più noti, il racconto The Fly di George Langelaan da cui verranno tratti i due film L’esperimento del dottor K e La mosca), raggiungendo la diffusione a livello mondiale con il successo della serie televisiva Star Trek e dei suoi seguiti e trasposizioni cinematografiche (si veda Teletrasporto (Star Trek)). Il concetto è stato ripreso anche da Stargate SG-1 e serie correlate (si veda Teletrasporto (Stargate)). I generi di teletrasporto utilizzati nella fantascienza sono in genere di due tipi:

– per scomposizione e riassemblaggio (come quelli citati precedentemente)

– per portali (con o senza passaggio attraverso una “dimensione” intermedia).

Vi è poi un terzo tipo di trasmissione istantanea, che non riguarda la materia ma solo le informazioni, a scopo di telecomunicazione, attraverso dispositivi come l’ansible.

Il Teletrasporto quantistico:

Il teletrasporto quantistico è una tecnica nell’ambito dell’informatica quantistica che permette di trasferire uno stato quantistico in un punto arbitrariamente lontano. Come conseguenza dei postulati della meccanica quantistica, il teorema di no-cloning quantistico vieta, in accordo con il teorema di non discriminazione quantistico, la creazione di un duplicato esatto di uno stato quantistico sconosciuto. Sorprendentemente, è però possibile trasferire lo stato quantistico di un sistema in un altro sistema. Questo, ovviamente, a patto di rispettare il teorema di no-cloning, ossia distruggere l’informazione nel sistema originale. Supponiamo che una persona di nome Alice abbia un atomo di rubidio (l’elemento che i fisici in questo campo utilizzano abitualmente) nel suo stato di minima energia, e che un’altra di nome Bob abbia un atomo dello stesso tipo, anch’esso nello stato di minima energia. L’aspetto importante è che questi due atomi sono indistinguibili; questo significa che non c’è differenza tra di essi.
Se Alice e Bob avessero, per esempio, due sfere di vetro, apparentemente identiche, e le scambiassero, ci sarebbero comunque dei cambiamenti. Se si avesse un potente microscopio, si sarebbe sicuramente in grado di distinguere le due sfere. Al contrario per atomi dello stesso tipo nello stesso stato quantistico non ci sono del tutto differenze. La situazione in cui Alice ha il primo atomo e Bob il secondo è esattamente la stessa rispetto al caso in cui Alice e Bob si scambiassero gli atomi. In un certo senso, è sbagliato affermare che due atomi hanno individualità o identità. Sarebbe più corretto dire che due posizioni nello spazio hanno la proprietà di avere i campi quantistici fondamentali nello stesso stato che definisce lo stato di minima energia di un atomo di rubidio.

Immaginiamo che l’atomo di Alice sia in qualche stato complicato (eccitato). Assumiamo quindi di non conoscere questo stato quantistico — e, come conseguenza del teorema di non discriminazione quantistico, di non essere in grado di conoscerlo. Quello che possiamo fare èteletrasportare lo stato nell’atomo di rubidio di Bob. In seguito a questa operazione, l’atomo di Bob è esattamente nello stato in cui era Alice in precedenza. A questo punto si noti che l’atomo di Bob è indistinguibile da quello di Alice prima dell’operazione. In un certo senso, i due atomi sonogli stessi — perché non ha senso affermare che due atomi sono differenti solo perché sono in posizioni differenti. Se Alice fosse andata da Bob e gli avesse dato il suo atomo, ci si troverebbe nella stessa situazione in cui ci si trova in seguito al teletrasporto. Ma in questo caso Alice e Bob non devono incontrarsi; è sufficiente che condividano uno stato entangled e che possano comunicare.

—————————————————————————————————————————————–

I Wormholes

2042257-wormholeUn wormhole (in italiano letteralmente “buco di verme” ma tradotto in genere col termine “galleria di tarlo”), o cunicolo spazio-temporale, detto anche Ponte di EinsteinRosen, è una ipotetica caratteristica topologica dello spaziotempo che è essenzialmente una “scorciatoia” da un punto dell’universo a un altro, che permetterebbe di viaggiare tra di essi più velocemente di quanto impiegherebbe la luce a percorrere la distanza attraverso lo spazio normale. Il termine inglese “wormhole” deriva dalla seguente analogia usata per spiegare il concetto: si immagini che l’universo sia una mela, e che un verme viaggi sulla sua superficie. La distanza tra due punti opposti della mela è pari a metà della sua circonferenza se il verme resta sulla superficie della mela, ma se invece esso si scava un foro direttamente attraverso la mela la distanza che deve percorrere per raggiungere quel determinato punto diventa inferiore. Il foro attraverso la mela rappresenta il wormhole.

Non si sa se un wormhole possa esistere. Una soluzione alle equazioni della relatività generale che potrebbe rendere possibili i wormhole senza materia esotica, una sostanza teorica che ha una densità di energia negativa, non è stata ancora scoperta. Comunque, né le soluzioni alle equazioni della relatività generale che accomodano i wormhole, né l’esistenza della materia esotica, sono state rigettate. Molti fisici, compreso Stephen Hawking (vedi la congettura di protezione cronologica di Hawking), ritengono che, a causa dei problemi che un wormhole creerebbe in teoria, compreso permettere il viaggio nel tempo, ci sia qualcosa di fondamentale nelle leggi della fisica che lo proibisca. Ad ogni modo, questa rimane una speculazione, e la nozione che la natura censurerebbe gli oggetti sconvenienti è già stata smentita nel caso del principio di censura cosmica. Un wormhole potrebbe potenzialmente permettere il viaggio nel tempo. Questo potrebbe essere conseguito accelerando un’estremità del wormhole relativamente all’altra, e riportandola successivamente indietro; la dilatazione temporale relativistica risulterebbe in un minor tempo passato per la bocca del wormhole che è stata accelerata, in confronto a quella rimasta ferma, il che significa che tutto ciò che è passato dalla bocca stazionaria, uscirebbe da quella accelerata in un tempo precedente a quello del suo ingresso. Il percorso attraverso un tale wormhole viene detto Curva chiusa di tipo tempo, e un wormhole con questa caratteristica viene talvolta detto “timehole” o buco temporale. Si ritiene comunque che non sia possibile convertire un wormhole in una macchina del tempo in questa maniera; alcuni modelli matematici indicano che un circuito retroattivo di particelle virtuali, circolerebbe all’interno del timehole con intensità crescente, distruggendolo prima che qualsiasi informazione possa passarvi attraverso. Ciò è stato chiamato in causa dal suggerimento che la radiazione si disperderebbe dopo aver viaggiato attraverso il wormhole, prevenendo così un accumulo infinito. Il dibattito su questo soggetto è descritto da Kip S. Thorne nel libro Black Holes and Time Warps, e richiederebbe probabilmente la risoluzione di una teoria della gravità quantistica.

I wormholes, per la loro supposta capacità di rendere possibili i viaggi tra punti molto distanti del cosmo, sono un elemento narrativo assai sfruttato nella fantascienza. Sono il punto centrale del romanzo di Carl E. Sagan Contact (1985), per il quale Kip Thorne consultò Sagan sulla possibilità dei wormhole. Dal romanzo di Sagan è stato tratto un omonimo film (1997). Isaac Asimov usa l’espediente del salto temporale nel romanzo Paria dei cieli, pur non usando il nome wormhole per riferirsi al buco temporale che si apre davanti a Joseph Shwartz, il protagonista, che viene catapultato avanti nel tempo di millenni. Negli anni novanta i wormhole si sono trovati al centro del dittico della Caccia alla Terra (Hunted Earth, 1990 e 1994) dello scrittore statunitense Roger MacBride Allen. Essi sono poi il principio base su cui si sviluppa la trama del film Stargate e delle serie tv derivatene Stargate SG-1 e Stargate Atlantis. Gli Stargate sono antichissimi congegni costruiti da un’antica razza aliena e disseminati per tutta la Via Lattea e altre galassie, nel tentativo di creare una rete d’interscambio per viaggiare rapidamente da un pianeta all’altro senza dover ricorrere a potenti vascelli spaziali. L’ambientazione della serie televisiva Star Trek – Deep Space Nine è quella di una stazione spaziale collocata vicino ad un “tunnel spaziale” (wormhole) stabile nello spazio del pianeta Bajor, che mette in comunicazione con il remoto quadrante Gamma della galassia. Il wormhole è peraltro popolato da misteriose entità extradimensionali che, con il nome di “Profeti di Bajor“, sono da sempre oggetto di religiosa venerazione da parte del popolo dei Bajoriani. La serie TV Farscape presenta un astronauta americano che accidentalmente passa attraverso un wormhole e finisce in una parte remota dell’universo. Nella serie televisiva I viaggiatori (Sliders), viene trovato un metodo per creare dei wormhole che permettono viaggi non tra punti diversi dell’universo, ma tra universi paralleli; gli oggetti e le persone che viaggiano attraverso il wormhole partono e arrivano nello stesso punto geografico e cronologico, ma in una delle tante dimensioni parallele. Questa serie presume che la realtà esista come parte di un multiverso e si chiede cosa sarebbe successo se grandi o piccoli eventi della storia si fossero svolti in maniera differente (ucronia); sono queste scelte che danno vita agli universi alternativi nei quali è ambientata la serie. Analoghe premesse sono usate nell’episodio Universi paralleli della serie tv Star Trek: The Next Generation. Nel 2000 Arthur C. Clarke e Stephen Baxter scrissero congiuntamente un romanzo di fantascienza, La luce del passato, che discute dei problemi che sorgono quando un wormhole viene utilizzato per comunicazioni a velocità superiore a quella della luce. Un wormhole è anche alla base della sceneggiatura del film di Richard Kelly Donnie Darko (2001). Un metodo correlato di viaggio che permette di superare la velocità della luce, che spesso appare nella fantascienza, specialmente nella Space Opera militare, è la “guida a salti”, che può spingere un’astronave tra due “punti di salto” prefissati, che connettono i sistemi solari. Connettere i sistemi solari con una rete di questo tipo risulta in un “terreno” fissato che può essere usato per costruire trame legate alle campagne militari. Nella serie a fumetti X-Men della Marvel Comics, il mutante Magneto utilizza il suo potere di alterare i campi magnetici per creare piccoli wormhole per spostarsi da un punto ad un altro. Nel videogioco per Nintendo Wii Metroid Prime 3: Corruption i wormhole sono utilizzati dai Leviatani per raggiungere i pianeti vittima. Alla fine del gioco la Federazione Galattica utilizza un Leviatano per produrre un wormhole, in modo da raggiungere il pianeta Phaaze.

—————————————————————————————————————————————-

L’Energia del Vuoto:

2042259-advanced_solar_electricityL’Energia di vuoto è un’energia presente in stato latente nello spazio anche quando privo di materia. Questo concetto è legato ai vorticosi fenomeni di creazione e annichilazione di particelle che si verificano quando si cerca di osservare il vuoto a delle distanze estremamente piccole in cui gli effetti quantistici entrano in gioco in modo decisivo. L’energia del vuoto provoca l’esistenza della maggior parte (se non di tutte) le forze fondamentali e, quindi, dei loro effetti. È stata osservata in alcuni esperimenti (come l’emissione spontanea di luce o raggi gamma, dell’effetto Casimir, della forza di legame di Van Der Waals) e si pensa (ma non è ancora stato dimostrato) che possa avere conseguenze anche nell’universo su scala cosmologica.

La teoria quantistica dei campi, che descrive le interazioni fra le particelle elementari in termini di campo, contribuisce alla dimostrazione dell’esistenza di questa energia legandola all’energia di punto zero del campo.Un esempio è l’effetto Casimir, in cui due piastre metalliche vicine sono sottoposte ad una leggera forza di attrazione. È possibile attribuire questa forza alla dipendenza dell’energia di punto zero del campo elettromagnetico sulla distanza delle piastre. Poiché l’energia potenziale è definita fino ad una costante arbitraria, il valore dell’energia del vuoto potrebbe essere considerato non importante. Questa importanza nasce nel momento in cui si considera anche la forza di gravità. Questo ha importanti conseguenze su scala cosmologica dal momento che questa energia andrebbe a contribuire alla costante cosmologica, a cui è collegata l’espansione dell’universo . In definitiva la quantità di energia del vuoto può essere descritta come un conteggio delle particelle virtuali (o fluttuazioni di vuoto), che sono generate e distrutte dal vuoto.

Nell’ultimo periodo del 1998 si osservò, studiando più di 40 supernovae, che la velocità di espansione dell’universo aumentava sensibilmente invece di diminuire. Finora si era pensato, infatti, che l’universo stesse gradualmente rallentando per poi eventualmente fermarsi regredire verso un Big Crunch. Studiando la luce di queste supernove, infatti, si poté definire la loro distanza: essa risultava essere, però, del 10-15% superiore di quella attesa. L’Universo, dunque, sarebbe in perenne accelerazione. Il concetto di energia del vuoto ha notevoli implicazioni: prima di tutto le fluttuazioni di vuoto generano sempre un accoppiamento particellaantiparticella. Il fisico Stephen Hawking ha supposto che la creazione di queste particelle nei pressi di un buco nero sia assimilabile ad una sorta di “evaporazione” dello stesso. L’energia netta dell’universo rimane pari a zero se questi accoppiamenti vengono distrutti entro il tempo di Planck. Se prima che accada questo annichilimento una delle due particelle viene attratta dal buco nero, l’altra viene irradiata nello spazio. Tale perdita si accumula e, nel tempo, potrebbe portare alla scomparsa del buco nero. Il tempo necessario a tale processo dipende dalle dimensioni del buco nero, ma si è calcolato che sarebbero necessari 10100 anni perché un buco nero delle dimensioni del Sole venga distrutto.

Il Falso Vuoto:

In teoria quantistica dei campi il concetto di falso vuoto, si riferisce a uno stato quantomeccanico, apparentemente stabile, caratterizzato da un livello di energia che, per quanto estremamente basso, non corrisponde a quello di energia più bassa. In questo caso, almeno in linea teorica, è permessa la transizione verso livelli di energia più bassi, ad esempio per effetto tunnel. Il concetto di falso vuoto è strettamente legato a quello di vuoto quanto-meccanico. Quest’ultimo è definito come uno stato quanto-meccanico in cui l’energia è zero. Poiché tale livello è il più basso teoricamente concepibile, il vuoto così definito sarebbe anche uno stato assolutamente stabile. Tuttavia, l’esistenza di questo stato di vuoto assoluto è concettualmente impedita dalla stessa teoria quantistica dei campi, che prevede il manifestarsi delle cosiddette fluttuazioni dell’energia di punto zero; si tratta di un fenomeno fisico che deriva dal principio di indeterminazione di Heisenberg e la cui esistenza è un fatto sperimentalmente acquisito (a tale proposito si veda, ad esempio, l’effetto Casimir). Il vuoto, sebbene negato dalla teoria, può tuttavia essere approssimato da uno stato di energia estremamente basso e, almeno apparentemente, stabile. Tuttavia, l’ammissibilità di livelli energetici inferiori, fa sì che questo stato di vuoto approssimato è suscettibile di una transizione quantistica che lo porti ad occupare uno degli stati caratterizzanti dei livelli energetici inferiori. In questo senso si parla allora di uno stato di falso vuoto.

L’Energia di Punto Zero:

2042258-energiaIn fisica, l’energia di punto zero (in inglese, zero-point energy, ZPE) è il più basso livello energetico possibile in un sistema quantistico. Dal principio di indeterminazione di Heisenberg deriva che il vuoto è permeato da un mare di fluttuazioni quantistiche che creano coppie di particelle e anti-particelle virtuali che si annichiliscono in un tempo inversamente proporzionale alla propria energia. Il contributo complessivo all’energia del vuoto risulta così mediamente diverso da zero e pari a hf/2 dove h è la costante di Planck e f è la frequenza di un generico modo di vibrazione associabile alla lunghezza d’onda materiale delle particelle virtuali. Integrando rispetto allo spazio tutti i contributi dati dalle fluttuazioni quantistiche a tutte le energie e lunghezze d’onda si ottiene una quantità di energia enorme per unità di volume. Dal momento che l’energia produce gravità essa dovrebbe contribuire a determinare in modo significativo il valore della costante cosmologica che invece risulta di entità molto esigua. Nella realtà dunque, questa enorme energia viene a elidersi quasi totalmente e non è facile pensare a un modo pratico per estrarla dal suo “background” di vuoto quantistico. In teoria quantistica dei campi, il termine energia di punto zero è sinonimo di energia del vuoto. L’esistenza di una energia non nulla associata al vuoto è alla base dell’effetto Casimir, previsto nel 1947 e confermato sperimentalmente. Altri effetti derivanti dall’energia di punto zero sono la forza di Van der Waals, lo spostamento Lamb-Rutherford, la spiegazione dello spettro di radiazione di corpo nero di Planck, la stabilità dello stato fondamentale dell’atomo di idrogeno dal collasso radiativo, l’effetto delle cavità di inibire o aumentare l’emissione spontanea di fotoni dagli atomi eccitati e la radiazione di Hawking responsabile dell’evaporazione dei buchi neri.

—————————————————————————————————————————————-

L’Antimateria:

2042262-300px-plasma-lamp_2L’antimateria è la materia composta dalle antiparticelle corrispondenti alle particelle che costituiscono la materia ordinaria. Ad esempio, un atomo di antidrogeno, è composto da un antiprotone caricato negativamente, attorno al quale orbita un positrone (antielettrone) caricato positivamente. Se una coppia particella/antiparticella viene a contatto, le due si annichilano emettendo radiazione elettromagnetica. La prima ipotesi dell’esistenza dell’Antimateria fu ad opera del fisico Paul Dirac nel 1930 che per primo pensò al positrone come antiparticella dell’elettrone. Nel 1932 Carl D. Anderson ne diede la conferma sperimentale dell’esistenza. Nel 1959 i fisici Emilio Segrè e Owen Chamberlain scoprirono l’antiprotone grazie al quale ricevettero il premio Nobel. Nel 1965 al CERN di Ginevra con l’acceleratore di particelle PS (Protosincrotone) il gruppo di ricerca condotto dal fisico italiano Antonino Zichichi scopre il primo nucleo di antimateria, e cioè un nucleo di antideuterio contemporaneamente a un gruppo del Laboratorio Nazionale di Brookhaven a New York con l’AGS (Alternating Gradient Synchroton). Nel 1978 ricercatori italiani e francesi guidati da Giorgio Giacomelli scoprirono nuclei di antitrizio (un antiprotone e due antineutroni )e di antielio 3 (due antiprotoni e un antineutrone). Con l’acceleratore di Serpukhov scienziati russi ottennero analoghi risultati. Gli scienziati sono riusciti, nel 1995, a produrre antiatomi di idrogeno, ed anche nuclei di antideuterio. Nel 1997 al CERN ricercatori svizzeri, italiani, inglesi, danesi, giapponesi e brasiliani sotto il progetto ATHENA (ApparaTus for High precision Experiments with Neutral Antimatter, in italiano apparato per esperimenti di alta precisione con antimateria neutrale), crearono i primi atomi di antidrogeno. Circa 50.000 atomi. La stessa collaborazione riuscì a sintetizzare il protonio, un atomo instabile composto da un protone e da un antiprotone.

Nel futuro nella Stazione Spaziale Internazionale (ISS) si effettuaranno esperimenti per produrre nuclei di antielio e anticarbonio. Sebbene utilizzata principalmente per studiare le interazioni tra particelle elementari, l’antimateria ha anche un’applicazione tecnologica: la tomografia ad emissione di positroni, o PET, uno strumento di diagnostica medica che utilizza l’emissione di positroni per realizzare immagini ad alta risoluzione degli organi interni dei pazienti. Inoltre, l’antimateria ha vita breve e non può essere immagazzinata, in quanto si annichilisce al primo contatto con la materia. In base alle attuali conoscenze, non esistono quantità significative di antimateria in tutto l’universo, con l’eccezione di pochi atomi generati nei laboratori di fisica delle particelle presenti sul nostro pianeta, e nei processi astronomici più energetici. L’assenza di antimateria è uno dei grandi misteri della teoria del Big Bang, in quanto ci si aspetterebbe una produzione di materia e antimateria in proporzioni uguali (e una conseguente annichilimento. Probabilmente, un leggero squilibrio in favore della materia ha fatto sì che quest’ultima non venisse completamente annichilita, rendendo possibile la formazione di un universo stabile, che è quello in cui viviamo.

Se una parte di antimateria si annichilisce a contatto con della materia ordinaria, tutta la massa delle particelle ed antiparticelle annichilite viene convertita in energia. Questo processo permetterebbe di ottenere enormi quantità di energia da quantità molto piccole di materia ed antimateria, al contrario di quanto avviene invece per le reazioni nucleari e chimiche, dove a parità di massa di combustibili utilizzati viene prodotta una quantità di energia molto più piccola. La reazione di 1 kg di antimateria, con 1 kg di materia produce 1,8×10^17 J di energia (in base all’equazione E=mc²). Per contro, bruciare 1 kg di petrolio fornisce 4,2×10^7 J, mentre dalla fusione nucleare di 1 kg di idrogeno si otterrebbero 2,6×10^15 J. In altre parole, l’annichilazione della materia con l’antimateria produce circa 70 volte l’energia prodotta dalla fusione nucleare dell’idrogeno in elio e quattro milioni di volte l’energia prodotta dalla combustione del petrolio. Data la scarsità dell’antimateria in natura, l’antimateria non è una valida fonte di energia. Generare un singolo atomo di antimateria è immensamente difficile e dispendioso. Sono necessari acceleratori di particelle ed enormi quantitativi di energia, enormemente superiori a quella rilasciata dopo l’annichilazione con la materia ordinaria. A meno che non vengano scoperte fonti naturali di antimateria o non si trovi un processo efficiente di produzione della stessa e per la sua conservazione per tempi lunghi, evitando che si annichili con la materia che ne costituirebbe il serbatoio, il suo possibile sfruttamento rimarrà più che altro una mera curiosità scientifica. A livello teorico, dato che l’energia prodotta dall’annichilamento materia/antimateria è nettamente superiore a quella prodotta da altri sistemi propulsivi, il rapporto tra peso del carburante e spinta prodotta sarebbe estremamente vantaggioso. L’energia ottenibile dalla reazione di pochi grammi di antimateria con altrettanti di materia sarebbe sufficiente a portare una piccola navicella spaziale sulla Luna.

—————————————————————————————————————————————–

La Teoria delle Stringhe:

2042261-teoria-delle-stringhe-bigLa teoria delle stringhe, talvolta definita teoria delle corde, è una teoria della fisica che ipotizza che la materia, l’energia e in alcuni casi lo spazio e il tempo siano in realtà la manifestazione di entità fisiche sottostanti, chiamate appunto stringhe o brane, a seconda del numero di dimensioni in cui si sviluppano. La teoria non ha finora prodotto alcuna predizione che possa essere sottoposta a verifica sperimentale, non esistono quindi conferme sperimentali evidenti della teoria. È però un campo molto attivo della ricerca ed è in veloce sviluppo. La teoria delle stringhe è un modello fisico i cui costituenti fondamentali sono oggetti ad una dimensione (le stringhe) invece che di dimensione nulla (i punti) caratteristici della fisica anteriore alla teoria delle stringhe. Per questa ragione le teorie di stringa sono capaci di evitare i problemi di una teoria fisica connessi alla presenza di particelle puntiformi. Uno studio più approfondito della teoria delle stringhe ha rivelato che gli oggetti descritti dalla teoria possono essere di varie dimensioni e quindi essere punti (0 dimensioni), stringhe (1 dimensione), membrane (2 dimensioni) e oggetti di dimensioni D superiori (D-brane). Il termine teoria delle stringhe si riferisce propriamente sia alla teoria bosonica a 26 dimensioni che alla teoria supersimmetrica a 10 dimensioni. Tuttavia nell’uso comune, teoria delle stringhe si riferisce alla variante supersimmetrica, mentre la teoria anteriore va sotto il nome di teoria bosonica delle stringhe. L’interesse della teoria risiede nel fatto che si spera possa essere una teoria del tutto, ossia una teoria che inglobi tutte le forze fondamentali. È una soluzione percorribile per la gravità quantistica e in più può descrivere in modo naturale le interazioni elettromagnetiche e le altre interazioni fondamentali. La teoria supersimmetrica include anche i fermioni, i blocchi costituenti la materia. Non si conosce ancora se la teoria delle stringhe sia capace di descrivere un universo con le stesse caratteristiche di forze e materia di quello osservato finora. Ad un livello più concreto, la teoria delle stringhe ha originato progressi nella matematica dei nodi, negli spazi di Calabi-Yau e in molti altri campi. Gli sviluppi di maggior impatto della matematica degli ultimi anni, sono nati dallo studio della teoria delle stringhe. La teoria delle stringhe ha anche gettato maggior luce sulle teorie di gauge supersimmetrico, un argomento che include possibili estensioni del modello standard.

Una caratteristica interessante della teoria delle stringhe è che essa predice il numero di dimensioni che l’Universo dovrebbe avere. Né la teoria dell’elettromagnetismo di Maxwell né la teoria della relatività di Einstein dicono nulla sull’argomento: entrambe le teorie richiedono che i fisici inseriscano “a mano” il numero delle dimensioni. Invece, la teoria delle stringhe consente di calcolare il numero di dimensioni dello spazio-tempo dai suoi principi base. Tecnicamente, questo accade perché il principio di invarianza di Lorentz può essere soddisfatto solo in un certo numero di dimensioni. Più o meno questo equivale a dire che se misuriamo la distanza fra due punti e poi ruotiamo il nostro osservatore di un certo angolo e misuriamo di nuovo, la distanza osservata rimane la stessa solo se l’universo ha un ben preciso numero di dimensioni. Il solo problema è che quando si esegue questo calcolo, il numero di dimensioni dell’universo non è quattro, come ci si potrebbe attendere (tre assi spaziali e uno temporale), bensì ventisei. Più precisamente, le teorie bosoniche implicano 26 dimensioni, mentre le superstringhe e le teorie-M risultano richiedere 10 o 11 dimensioni.

A tutt’oggi, la teoria delle stringhe non è verificabile, anche se ci sono aspettative che nuove e più precise misurazioni delle anisotropie della radiazione cosmica di fondo, possano dare le prime conferme indirette. Indubbiamente non è l’unica teoria in sviluppo a soffrire di questa difficoltà; qualunque nuovo sviluppo può passare attraverso una fase di non verificabilità prima di essere definitivamente accettato o respinto. Come Richard Feynman scrive ne Il carattere della Legge Fisica, il test chiave di una teoria scientifica è verificare se le sue conseguenze sono in accordo con le misurazioni ottenute sperimentalmente. Non importa chi abbia inventato la teoria, “quale sia il suo nome”, e neanche quanto la teoria possa essere esteticamente attraente: “se essa non è in accordo con la realtà sperimentale, essa è sbagliata”. (Ovviamente, ci possono essere fattori collaterali: qualcosa può essere andato male nell’esperimento, o forse chi stava valutando le conseguenze della teoria ha commesso un errore: tutte queste possibilità devono essere verificate, il che comporta un tempo non trascurabile). Nessuna versione della teoria delle stringhe ha avanzato una previsione che differisca da quelle di altre teorie – almeno, non in una maniera che si possa verificare sperimentalmente. In questo senso, la teoria delle stringhe è ancora in uno “stato larvale”: essa possiede molte caratteristiche di interesse matematico, e può davvero diventare estremamente importante per la nostra comprensione dell’Universo, ma richiede ulteriori sviluppi prima di poter diventare verificabile. Questi sviluppi possono essere nella teoria stessa, come nuovi metodi per eseguire i calcoli e derivare le predizioni, o possono consistere in progressi nelle scienze sperimentali, che possono rendere misurabili quantità che al momento non lo sono. Si potrebbe tuttavia verificare la veridicità della teoria indirettamente analizzando i gravitoni. Gli attuali acceleratori di particelle non sono in grado di tracciare il momento in cui un gravitone sfugge per passare a una brana vicina. Forse LHC, il nuovo acceleratore in costruzione a Ginevra, potrà darci nuove risposte.

—————————————————————————————————————————————–

Teoria della Grande Unificazione (GUT)

La teoria della grande unificazione, nota anche come GUT (acronimo dell’inglese grand unification theory o grand unified theory) è legata alle ipotesi teoriche secondo cui le tre forze non-gravitazionali si dovrebbero unificare in una unica descrizione supersimmetrica dove il sottostante gruppo di simmetria dovrebbe essere o SO(10) o SU(5). Per il momento non c’è alcuna verifica sperimentale di queste idee, poiché la tipica scala energetica di grande unificazione dovrebbe essere quella di 10^ 16 eV mentre oggigiorno stiamo effettuando esperimenti ad energie dell’ordine di 10^ 12 eV. Fino al 2008, non vi è ancora una prova definitiva circa la veridicità della natura descritta dalla grande teoria unificata. Inoltre, poiché la particella di Higgs non è stata ancora osservata, la più piccola unificazione elettrodebole è ancora in corso. La scoperta delle oscillazioni del neutrino indica che il modello standard è incompleto e conduce ad interesse rinnovato verso certe GUT come SO(10). Una delle poche prove sperimentali possibili alla GUT è il decadimento del protone ed in generale delle masse fermioniche. Ci sono poche prove verso particolari GUT supersimmetrici.

—————————————————————————————————————————————–

La Teoria del Tutto

2042263-gutUna teoria del tutto è una ipotetica teoria di fisica teorica che spiega interamente e collega assieme tutti i fenomeni fisici conosciuti. Inizialmente il termine fu usato con connotazione ironica per riferirsi alle varie teorie supergeneralizzate. Per esempio, un bisnonno di Ijon Tichy — un personaggio di una serie di storie di fantascienza di Stanisław Lem degli anni 60 — era risaputo al lavoro sulla “Teoria Generale del Tutto”. Il fisico John Ellis afferma di aver introdotto il termine nella letteratura tecnica in un articolo della rivista Nature nel 1986. Nel tempo, il termine si fissò nelle popolarizzazioni della fisica quantistica per descrivere una teoria che avrebbe unificato o spiegato attraverso un solo modello le teorie di tutte le Interazioni fondamentali della natura. Ci sono state molte teorie del tutto proposte dai fisici teorici nell’ultimo secolo, ma nessuna è stata confermata sperimentalmente. Il problema principale nel produrre una teoria del tutto è che le teorie accettate della meccanica quantistica e della relatività generale sono difficili da combinare. Basandosi su argomentazioni sul principio olografico teorico degli anni 90, molti fisici credono che la M-teoria a 11 dimensioni, che viene descritta in molti settori come teoria della matrice di stringhe, in molti altri come teoria delle stringhe perturbative è una teoria completa del tutto. Ma molti altri fisici non concordano.

Laplace suggerì che un intelletto sufficientemente potente potrebbe, se conoscesse la velocità di ogni particella in un dato istante, assieme alle leggi della natura, calcolare la posizione di ogni particella in un altro istante: « Un’intelligenza che in un certo istante conoscesse tutte le forze che mettono la natura in moto e tutte le posizioni di tutti gli oggetti la quale natura è conosciuta, se questo intelletto fosse anche abbastanza vasto per analizzare questi dati, raccoglierebbe in una singola formula i movimenti dai più grandi corpi dell’universo a quelli del più piccolo atomo; per una tale intelligenza niente sarebbe incerto e il futuro, come il passato, sarebbe il presente ai suoi occhi. » ( Essai philosophique sur les probabilités, Introduction. 1814). Anche se la meccanica quantistica moderna suggerisce che l’incertezza è inevitabile, una “singola formula” potrebbe comunque esistere.

Dai tempi dell’antica Grecia, i filosofi hanno congetturato che l’apparente diversità della realtà nasconde un’unità intrinseca e quindi che la lista delle forze potrebbe essere breve, anzi potrebbe contenere un singolo elemento. Per esempio la filosofia meccanica del XVII secolo assumeva che tutte le forze potrebbero in definitiva venire ridotte a forze di contatto tra piccole particelle solide. Questa teoria fu abbandonata dopo l’accettazione della forza di gravità a lunga distanza di Isaac Newton; ma nello stesso momento, il lavoro di Newton nei suoi Principia fornirono la prima forte prova empirica per l’unificazione di forze apparentemente distinte: Il lavoro di Galileo sulla gravità terrestre, le leggi del movimento planetario di Keplero e il fenomeno delle maree furono tutti spiegati qualitativamente da una singola legge della gravitazione universale. Nel 1820,Hans Christian Oersted scoprì una connessione tra elettricità e magnetismo, attivando decenni di lavoro che culminarono nella teoria dell’elettromagnetismo di James Clerk Maxwell. Anche durante il XIX secolo e l’inizio del XX secolo divenne gradualmente evidente che molti esempi di forze comuni — forze di contatto, elasticità, viscosità, attrito, pressione — risultavano da interazioni elettriche tra le più piccole particelle della materia. Alla fine degli anni 20, la nuova meccanica quantistica mostrò che i legami chimici tra gli atomi erano esempi di forze elettriche (quantistiche), giustificando la millantata di Dirac che “le leggi fisiche alla base, necessarie per la teoria matematica di gran parte di fisici e la totalità della chimica sono quindi completamente conosciute”. Tentativi di unificare la gravità con l’elettromagnetismo vengono datati almeno agli esperimenti di Michael Faraday del 1849–50. Dopo la teoria della gravità di Albert Einstein (relatività generale) venne pubblicata nel 1915, la ricerca di una teoria unificata dei campi che combinasse la gravità con l’elettromagnetismo cominciò a rendersi seria. All’epoca sembrava plausibile che non esistessero altre forze fondamentali. I principali contributori furono Gunnar Nordstrom, Hermann Weyl, Arthur Eddington,Theodor Kaluza, Oskar Klein e più notoriamente i molti tentativi fatti da Einstein e dai suoi collaboratori. Nei suoi ultimi anni, Albert Einstein fu intensamente occupato a trovare una tale teoria unificatrice. Nessuno di questi tentativi si rivelò però di successo.

La ricerca di una teoria universale fu interrotta dalla scoperta delle forze nucleari forte e debole, che non potevano essere incluse né nella gravità né nell’elettromagnetismo. Un ulteriore ostacolo fu l’accettare che la meccanica quantistica dovesse essere incorporata dall’inizio, anziché emergere come conseguenza di una teoria deterministica unificata, come aveva sperato Einstein. La gravità e l’elettromagnetismo possono pacificamente coesistere come elementi in una lista di forze newtoniane, ma per molti anni sembrò che la gravità non potesse nemmeno essere incorporata nella struttura quantica, lasciata sola unificata alle altre forze fondamentali. Per questa ragione il lavoro di unificazione per gran parte del ventesimo secolo, si incentrò sulla comprensione delle tre forze “quantiche”: elettromagnetismo e le forze nucleari debole e forte. Le prime due furono unite nel 1967–68 da Sheldon Glashow, Steven Weinberg, e Abdus Salam. Le forze forte ed elettrodebole coesistono pacificamente nel modello standard della fisica particellare, ma rimangono distinte. Diverse teorie della grande unificazione sono state proposte per unificarle. Anche se le più semplici di tali teorie sono state sperimentalmente escluse, l’idea generale, specialmente quando collegata con la supersimmetria, rimane fortemente favorita dalla comunità dei fisici teorici.

2042260-antimateriaNella corrente principale dell’attuale fisica, una Teoria del Tutto unificherebbe tutte le interazioni fondamentali della natura, che sono solitamente considerate essere quattro in numero: gravità, forza nucleare forte, forza nucleare debole e forza elettromagnetica. Siccome la forza debole può trasformare le particelle elementari da un tipo a un altro, la Teoria del Tutto dovrebbe dare una profonda comprensione dei vari tipi di particelle e delle diverse forze. In aggiunta alle forze elencate qua, la cosmologia moderna potrebbe richiedere forze inflazionarie, energia oscura e anche materia oscura composta di particelle fondamentali fuori dallo schema del modello standard. L’esistenza di queste non è stata provata e ci sono teorie alternative come le teorie MOND. L’unificazione elettrodebole è una simmetria rotta: le forze elettromagnetiche e debole appaiono distinte a bassi livelli energetici perché le particelle che portano la forza debole, i bosoni W e Z hanno una massa di circa 100 GeV, mentre il fotone, che porta la forza elettromagnetica, è senza massa. A livelli energetici elevati i bosoni W e Z possono essere creati facilmente e la natura unificata della forza diviene evidente. Ci si aspetta che la grande unificazione funzioni in modo simile, ma a energie dell’ordine di 10^ 16 GeV, molto più grandi di quelle raggiungibili con un qualsiasi acceleratore di particelle sulla Terra. Analogamente, l’unificazione della forza della grande unificazione con la gravità è attesa all’Energia di Planck, circa 10^ 19 GeV.

Potrebbe sembrare prematuro cercare una teoria del tutto quando non vi è ancora prova evidente di una forza elettronucleare e mentre ci sono ancora tante leggi della grande unificazione proposte. Infatti il nome suggerisce deliberatamente gli hýbris coinvolti. Ciò nonostante, fisici credono che questa unificazione sia possibile, in parte a causa della storia passata di convergenze verso una teoria singola. Le grandi unificazioni supersimmetriche sembrano plausibili non solo per la loro “bellezza” teorica, ma perché producono naturalmente grandi quantità di materia oscura e la forza inflazionaria può essere collegata con la fisica della grande unificazione (anche se non sembra formare una parte inevitabile della teoria). Inoltre le grandi unificazioni non sono chiaramente la risposta finale. Sia l’attuale modello standard e le grandi unificazioni proposte sono teorie quantistiche dei campi che richiedono la tecnica problematica della rinormalizzazione per portare a risposte sensibili. Questo viene solitamente considerato un segno che queste sono soltanto teorie sui campi efficaci, omettendo il fenomeno cruciale rilevante soltanto a energie estremamente elevate. Inoltre l’inconsistenza tra la meccanica quantistica e la relatività generale implica che una o entrambe esse devono essere rimpiazzate da una teoria che incorpori la Gravità quantistica. La principale teoria del tutto è al momento la Teoria delle superstringhe / M-teoria; l’attuale ricerca sulla gravità quantistica a loop potrebbe eventualmente giocare un ruolo fondamentale in una teoria del tutto, ma non è il suo obiettivo principale. Queste teorie cercano di affrontare il problema della rinormalizzazione attivando alcuni limiti inferiori sulle scale di lunghezza possibili. Le teorie delle stringhe e la supergravità (entrambe ritenute casi limitanti della ancora-da-definire M-teoria) suppongono che l’universo abbia effettivamente più dimensioni delle tre facilmente osservabili dello spazio e una del tempo. La motivazione dietro questo approccio cominciò con la teoria di Kaluza-Klein, nella quale fu notato che applicare la relatività generale a un universo a cinque dimensioni (con le quattro dimensioni usuali più una piccola dimensione piegata) porta a un equivalente dell’abituale relatività generale sulle quattro dimensioni assieme alle equazioni di Maxwell (elettromagnetismo, sempre in quattro dimensioni). Questo ha poi portato a sforzi di lavorare con teorie con un grande numero di dimensioni nella speranza che questo produca equazioni simili alle leggi conosciute della fisica. La nozione di extra dimensioni aiuta anche a risolvere il problema della gerarchia, che è la domanda sul perché la gravità è così tanto più debole di ogni altra forza. La risposta comune richiede che la gravità si “disperda” nelle altre dimensioni in modi diversi rispetto alle altre forze. Nei tardi anni 90 fu notato che un problema con diverse delle teorie del tutto candidate (ma in particolare della teoria delle stringhe) era che non vincolavano le caratteristiche dell’universo previsto. Per esempio, molte teorie sulla gravità quantistica possono creare universi con un numero arbitrario di dimensioni o con costanti cosmologiche arbitrarie. Anche la teoria decadimensionale “standard” delle stringhe permette alle dimensioni “incurvate” di essere compattate in un numero enorme di diversi modi (una stima è 10^ 500) ognuna delle quali corrisponde a una differente collezione di principi fondamentali e forze a bassa energia. Questo vettore di teorie è conosciuto come panorama della teoria delle stringhe. Una soluzione ipotetica è che molte o tutte queste possibilità si sono realizzate in uno o un altro di un numero enorme di universi, ma che solo un piccolo numero di essi sia abitabile e quindi le costanti fondamentali dell’universo sono in definitiva il risultato del principio antropico piuttosto che una conseguenza della teoria del tutto. Questo approccio antropico viene spesso criticato, perché la teoria è abbastanza flessibile per contenere quasi tutte le osservazioni, non può fare previsioni utili (come in originale, falsificabili e verificabili). In quest’ottica la teoria delle stringhe sarebbe considerata una pseudoscienza, dove una teoria infalsificabile viene adattata costantemente ai risultati sperimentali.

Un piccolo numero di scienziati afferma che i teoremi di incompletezza di Gödel dimostrano che un qualsiasi tentativo di costruire una teoria del tutto è destinato a fallire. Il teorema di Gödel afferma che una qualsiasi teoria matematica non banale che ha una descrizione finita è o inconsistente o incompleta. Nel suo libro del 1966, The Relevance of Physics (La rilevanza della fisica), Stanley Jaki osservò che, siccome ogni “teoria del tutto” sarebbe certamente una teoria matematica consistente non banale, deve essere incompleta. Egli afferma che questo condanna le ricerche su una teoria deterministica del tutto. Freeman Dyson ha affermato che: «Il teorema di Gödel implica che la matematica pura è inesauribile. Non importa quanti problemi vengono risolti, ci saranno sempre altri problemi che non possono essere risolti con le regole esistenti. […] A causa di questo teorema, anche la fisica è inesauribile. Le leggi della fisica sono un insieme finito di regole e includono quelle della matematica, quindi il teorema di Gödel si applica anche a loro» . Stephen Hawking era in origine un credente della Teoria del Tutto, ma, dopo aver considerato il Teorema di Gödel, concluse che non ve ne era una ottenibile: «Alcune persone si arrabbieranno molto se non esistesse una teoria definitiva, che possa essere formulata come un numero finito di principi. Io appartenevo a quel gruppo di persone, ma ho cambiato idea»(Stephen Hawking).
Questo punto di vista è stato discusso da Jürgen Schmidhuber (1997), che osservò che i teoremi di Gödel sono irrilevanti anche per la fisica computabile. Nel 2000 Schmidhuber costruì esplicitamente universi computabili e deterministici la cui pseudo-casualità basata su problemi della fermata indecidibili simili a quelli di Gödel è estremamente difficile da rilevare ma non evita assolutamente Teorie del Tutto formali descrivibili da pochissimi bit di informazione. Una critica in relazione a questo è stata offerta da Solomon Feferman, assieme ad altri. Douglas S. Robertson offre come esempio il gioco life di Conway: le regole alla base sono semplici e complete, ma ci sono domande formalmente indecidibili sul comportamento del gioco. Analogamente potrebbe (o non potrebbe) essere possibile dichiarare completamente le leggi intrinseche della fisica con un numero finito di leggi ben definite, ma c’è un piccolo dubbio che ci siano questioni sul comportamento dei sistemi fisici che sono formalmente indecidibili sulla base di tali leggi intrinseche. Siccome molti fisici considererebbero la dichiarazione delle leggi intrinseche sufficiente come definizione di una “teoria del tutto”, questi ricercatori affermano che il Teorema di Gödel non significa che una Teoria del Tutto non esiste. D’altra parte, sembra che i fisici che invocano il Teorema di Gödel, almeno in alcuni casi, si riferiscano non alle leggi intrinseche, ma alla comprensibilità del comportamento di tutti i sistemi fisici, come quando Hawking menziona la sistemazione di blocchi in rettangoli, trasformando la computazione dei numeri primi in una questione fisica. Questa discrepanza nelle definizioni potrebbe spiegare una parte del disaccordo tra i ricercatori.

Nessuna teoria fisica datata è ritenuta essere precisamente accurata. Invece i fisici hanno proceduto con una serie di “approssimazioni successive” che permettevano previsioni via via più accurate su un gruppo sempre più ampio di fenomeni. Alcuni fisici credono che è dunque un errore confondere i modelli teorici con la vera natura della realtà e ritengono che la serie delle approssimazioni non terminerà mai nella “verità”. Lo stesso Einstein espresse questo punto di vista in alcune occasioni. In quest’ottica potremmo ragionevolmente sperare per una teoria del tutto che auto incorpora consistentemente tutte le forze correntemente conosciute, ma non ci si aspetta che sia la risposta finale. D’altra parte si afferma spesso che, nonostante la complessità in apparente continua crescita della matematica di ogni nuova teoria, in un senso profondo associato con la loro simmetria di gauge intrinseca e il numero delle costanti fisiche fondamentali, le teorie stanno diventando più semplici. Se fosse così, il processo di semplificazione non potrebbe continuare all’infinito.

C’è un dibattito filosofico all’interno della comunità fisica sul fatto che una teoria del tutto meriti di essere chiamata la legge fondamentale dell’universo. Una delle viste è la posizione assolutamente riduzionista che la teoria del tutto è la legge fondamentale e tutte le altre teorie che si applicano all’interno dell’universo ne sono una conseguenza. Un altro punto di vista è che le leggi emergenti (chiamate da Steven Weinberg “leggi a galleggiamento libero”), le quali governano il comportamento dei sistemi complessi, dovrebbero essere viste come egualmente fondamentali. Esempi sono il secondo principio della termodinamica e la teoria della selezione naturale. Il punto è che, anche se nel nostro universo queste leggi descrivono sistemi il cui comportamento potrebbe (“in principio”) essere predetto da una teoria del tutto, queste risulterebbero vere anche in universi con differenti leggi di basso livello, soggette soltanto ad alcune condizioni molto generiche. Conseguentemente non è di aiuto, anche in principio, invocare le leggi di basso livello quando si discute il comportamento di sistemi complessi. Alcuni discutono che questo atteggiamento violerebbe il rasoio di Occam se una teoria del tutto completamente valida fosse formulata. Non è chiaro che ci sia un’idea del problema in questi dibattiti (ad esempio tra Steven Weinberg e Philip Anderson) diversa dal diritto di applicare la nobile parola “fondamentale” ai loro rispettivi soggetti di interesse.

Nonostante che il nome “Teoria del Tutto” suggerisce il determinismo della citazione di Laplace, questo da un’impressione molto fuorviante. Il determinismo è frustrato dalla natura probabilistica delle predizioni meccaniche, dall’estrema sensibilità alle condizioni iniziali che porta al caos matematico e dall’estrema difficoltà matematica di applicare la teoria. Quindi anche se l’attuale modello standard della fisica delle particelle “in principio” prevede tutti i fenomeni non gravitazionali conosciuti, in pratica sono stati derivati solo pochi risultati quantitativi dalla teoria completa (per esempio le masse di alcune dei più semplici adroni) e questi risultati (specialmente le masse delle particelle che sono più rilevanti per la fisica a bassa energia) sono meno accurati delle misure sperimentali esistenti. Una vera teoria del tutto sarebbe quasi certamente più difficile da applicare. Il motivo principale per ricercare una Teoria del tutto, a parte la pura soddisfazione intellettuale di completare una ricerca lunga secoli, è che tutte le precedenti unificazioni di successo hanno predetto nuovi fenomeni, alcuni dei quali (ad esempio i generatori elettrici) hanno dimostrato una grande importanza pratica. Come in altri casi di teorie riduzioniste, la teoria del tutto permetterebbe anche di definire con confidenza il dominio di validità e l’errore residuale delle approssimazioni a bassa energia all’intera teoria che potrebbe poi essere usata per calcoli pratici.

Lo stato di una teoria del tutto fisica è aperto al dibattito filosofico, Per esempio se il fisicalismo fosse vero, una teoria del tutto fisica coinciderebbe con la teoria filosofica del tutto. Alcuni filosofi (Aristotele, Platone, Georg Wilhelm Friedrich Hegel, Alfred North Whitehead e altri) hanno tentato di costruire sistemi omincomprensivi. Altri sono fortemente dubbiosi sulla realizzazione di un simile esercizio.

—————————————————————————————————————————————–

Le Onde Gravitazionali

2042264-onde20gLe onde gravitazionali sono onde dovute alla presenza di un campo gravitazionale. La loro esistenza è prevista a livello teorico dalla relatività generale di Einstein. Il meccanismo secondo il quale vengono a formarsi le onde gravitazionali in un punto dello spazio è dovuto a ciò che viene definito ritardo temporale: due masse esercitano tra di loro una forza attrattiva inversamente proporzionale al quadrato della loro distanza: questa forza, come tutto ciò che agisce nello spazio, non può propagarsi con velocità maggiore di quella della luce. L’onda gravitazionale è proprio il meccanismo attraverso cui il campo gravitazionale si propaga nello spazio. Un campo gravitazionale si propaga nello spazio in senso radiale, mentre le distorsioni che esso provoca localmente sonoperpendicolari alla sua direzione di propagazione. A partire dagli inizi del Novecento sono state formulate diverse teorie per determinare la meccanica di queste distorsioni. La teoria della gravitazione di Einstein era di tipo tensoriale: essa prevedeva onde a carattere quadrupolare, e richiedeva, per descrivere il campo gravitazionale in un punto dello spazio, un insieme di dieci valori, chiamati potenziali gravitazionali. La teoria scalare, invece, richiedeva un solo valore per ogni punto dello spazio, indipendente dal sistema di riferimento dell’osservatore. Altre teorie prevedevano delle modifiche alla teoria di Einstein, con una mescolanza di forze scalari e tensoriali. A tuttoggi il modello teorico più accreditato è quello sviluppato da Einstein, a struttura strettamente tensoriale. In base a questo modello si pensa che la quantità di radiazione gravitazionale emessa da un corpo dipenda dal grado di disomogeneità nella distribuzione della sua massa (in termini di deviazione del corpo dalla simmetria (fisica) sferica); la grandezza fisica che misura questa disomogeneità è il momento di quadrupolo. Quando il momento di quadrupolo di un corpo di grande massa subisce variazioni molto rapide viene emesso un gran numero di onde gravitazionali, di intensità e quantità proporzionali alla velocità delle variazioni. La cosa più importante è che la sorgente deve muoversi con rapidità in modo tale da accentuare la sua componente non sferica; per esempio, una stella ovale che ruoti intorno all’asse maggiore non produce onde gravitazionali, ma se ruota intorno all’asse minore diventa un’intensa emittente.

Fin dagli anni Cinquanta sono stati effettuati vari esperimenti allo scopo di rilevare le onde gravitazionali. In passato i nuovi tipi di radiazione venivano studiati producendoli in laboratorio; tale metodo non è utile nello studio delle onde gravitazionali, in quanto l’emissione di questo tipo di onde, da parte di masse da laboratorio, è estremamente debole e statisticamente improbabile: di conseguenza la strategia migliore è quella di cercare la radiazione emessa da masse grandissime, dell’ordine di quelle delle stelle o delle galassie. Si conoscono molte possibili sorgenti di onde gravitazionali, tra le quali sistemi binari di stelle, pulsar, esplosioni di supernovae, buchi neri in vibrazione e galassie in formazione; per ognuna di queste fonti il tipo di segnale emesso dovrebbe possedere un “timbro” caratteristico che individui univocamente il tipo di fonte e la causa dell’emissione. Un sistema stellare binario, formato cioè da due stelle che orbitano intorno ad un comune centro di massa, dovrebbe produrre onde gravitazionali continue; il periodo fondamentale di queste onde sarebbe pari a metà del periodo dell’orbita delle due stelle. L’emissione gravitazionale più intensa dovrebbe avere un’intensità pari ad h = 10 − 20; la larghezza di banda del ricevitore dovrebbe essere di circa 1500 hertz. Quando un sistema binario muore, le stelle che lo compongono cadono rapidamente verso il centro seguendo una traiettoria aspirale, fino a che collidono o si disintegrano, emettendo onde gravitazionali. Nel caso che il sistema sia formato da due stelle di neutroni, entrambi gli eventi (collisione o disintegrazione) dovrebbero produrre un impulso di onde gravitazionali molto più intenso, a causa del maggiore quantitativo di massa presente nel sistema.
Anche la nascita di una stella di neutroni, dall’esplosione di una supernova, dovrebbe essere annunciata dalla trasformazione di circa lo 0,1% della massa iniziale in onde gravitazionali. Il “timbro” di queste onde dovrebbe essere di tipo pulsato. Il rilevamento di onde gravitazionali provenienti da una supernova permetterebbe di confermare la previsione di Einstein riguardo la loro velocità: se le onde gravitazionali e quelle luminose venissero rilevate simultaneamente, avremmo una conferma diretta che le onde gravitazionali si propagano alla velocità della luce. Un ulteriore vantaggio nello studio del collasso stellare proviene dal fatto che la radiazione elettromagnetica durante il collasso viene bloccata dagli strati esterni della stella, che nascondono alla vista le fasi più violente dell’esplosione; le onde gravitazionali, che interagiscono così debolmente con la materia da poter attraversare senza attenuazioni l’atmosfera di una stella, potrebbero invece svelare i dettagli più fini del collasso. Il numero di esplosioni di supernova che ci attendiamo nella nostra galassia è circa una ogni 30 anni, con h = 10^ − 18, mentre nell’ammasso della Vergine, che conta circa 1000 galassie, ci attendiamo un’esplosione alla settimana, con h = 10^ − 21.

Una stella di neutroni giunta alla maturità può essere anch’essa una sorgente di onde gravitazionali se la sua massa non è disposta simmetricamente rispetto al suo asse di rotazione. In questo caso, come per i sistemi binari, le onde sono continue; il loro periodo fondamentale è uguale al periodo di rotazione della stella. Le informazioni ricevute darebbero informazioni sulla struttura interna di queste sorgenti, ancora non completamente conosciuta. La banda richiesta al ricevitore andrebbe da 1 a circa 1000 hertz. Un’altra possibile fonte di onde gravitazionali è il big bang: le osservazioni più importanti sull’universo primordiale ci vengono dall’osservazione del fondo cosmico di microonde, il resto della radiazione termica che pervadeva l’universo ai suoi inizi. Il rilevamento di un fondo (rumore) cosmico di onde gravitazionali svelerebbe nuovi aspetti del big bang.

Le onde gravitazionali prodotte nelle situazioni descritte avrebbero comunque un impatto estremamente debole ed effimero quando investono la Terra. Nel migliore dei casi, le masse dei rivelatori verrebbero appena sollecitate, con uno spostamento nelle loro posizioni di appena 10^ − 21 metri (un milionesimo del diametro di un protone) per ogni metro di separazione; per questo motivo molti scienziati sono tuttora scettici riguardo la possibilità di rilevare onde gravitazionali nei prossimi decenni. I fisici legano giustamente le maree alle onde gravitazionali, del resto questi fenomeni naturali altro non sono che la riprova della forza di gravità della luna e del sole. Ogni qualvolta infatti che il sole o la luna, o tutte e due i corpi celesti, passano sul meridiano di una località si produce una marea. Il fenomeno, sebbene studiato da moltissimo tempo – il primo fu Keplero e poi Newton – risulta abbastanza complesso. Non solo per l’eterogeneità della terra, l’acqua risente meglio la marea a differenza della terra ferma, ma anche per la differenza dei fondali. Inoltre nel fenomeno delle maree entrano come componenti chiave, la distanza della luna e del sole che non è costante per le orbite ellittiche, l’inclinazione e la rotazione della terra, i piani di rotazione (eclittiche). Basta solo ricordare che la luna ha qualcosa – lo dimostrano le tavole di E.Brown – come 1475 termini di perturbazioni. Pur nondimeno il fenomeno marea è abbastanza conosciuto. Tanto che si può prevedere al minuto la marea di un dato luogo. Le maree più evidenti avvengono quando il Sole e la Luna sono allineati alla terra; in questo caso le onde gravitazionali dei due astri si sommano e l’acqua si alza notevolmente (Sizigie). Il sole partecipa alle maree meno della luna pur avendo una massa notevolmente maggiore, ma in questo caso è la distanza che determina alla Luna più del doppio di efficacia. Il problema ora è se è vero che nella fase di esatta congiunzione Terra – Luna – Sole o Luna – Terra – Sole – oppure semplicemente quando soltanto il Sole o la sola Luna passano sul meridiano del luogo – si produce l’effetto di attrazione maggiore. Da tutti gli studi ufficiali ciò è considerato un assioma; Newton nei suoi “Principi” afferma che quando il Sole è allo Zenit si ha la massima attrazione. Per cui ne discende che essendo l’allineamento solo un effetto ottico in quando nel momento in cui noi vediamo Sole e Luna allineati in effetti la nostra stella ha già percorso più di un suo diametro di spazio (Luna e Sole in apparenza hanno le medesime grandezze in cielo) allora ci troviamo di fronte ad un effetto ondulatorio. In realtà l’esatto momento reale dell’allineamento avviene 8 minuti e mezzo prima della congiunzione visibile ai nostri occhi. Se il sole infatti sparisse, noi lo vedremmo ancora 8 minuti e mezzo nel cielo. Ma le maree sizigiali come dimostrano le formule di emeriti studiosi in materia (Bernoulli, Laurin, Eulero, La place, Proudman e Newton), avvengono esattamente al momento dell’allineamento (c’è a dire il vero uno sfasamento dovuto all’inerzia di rotazione, ma ciò si può estrapolare). Questo dimostra che la forza di Gravità del Sole non è istantanea, ma come la luce viaggia a 300.000 Km/sec. È quindi dallo studio attento delle maree che possiamo ora decidere se ha ragione Newton o Einstein; o se addirittura la Gravità sia un tipo di energia particolare. Se controllando attentamente i tempi di alta e bassa marea (un gravimetro è sufficiente) si notasse che le sizigie avvengono prima della congiunzione avremmo onde più veloci della luce (escluse dalla Relatività); se invece, come risulta dagli studi ufficiali (teoria Statica e Dinamica) le maree e quelle vive in particolare, avvengono al momento dell’allineamento o del passaggio sul meridiano del posto, ciò significa che il Gravitone esiste e viaggia come un’onda elettromagnetica. Del resto tutti i procedimenti di analisi derivano dall’applicazione del noto principio del minimo quadrato. Newton aveva dimostrato che la forza di attrazione gravitazionale di due corpi è diretta lungo la linea retta che li congiunge. Ma la realtà ci conferma che non ci sono sfasature fra le maree lunari e quelle solari nel periodo delle quadrature o nelle fasi intermedie isolate. Queste avvengono quando l’astro passa sul meridiano del posto o sul suo opposto; la Luna infatti è talmente vicina alla terra che la sua luce impiega poco più di un secondo, perciò la si può considerare “a contatto”. Le maree solari dovrebbero dare invece sfasature temporali ( noi lo vediamo con oltre 8 minuti di ritardo sulla sua reale posizione); ciò però non si verifica – la massima marea si forma all’esatto passaggio dell’astro sul meridiano – e quindi la Gravità è una forza viaggiante a 300.000 Km/sec.come la luce.

———————————————————————————————————————————

L’Orizzonte degli Eventi

2042265-bnUn orizzonte degli eventi è sostanzialmente una previsione della relatività generale che fenomenologicamente dovrebbe dare luogo ad un “confine” tale che tanto la materia, quanto la luce non lo possano attraversare uscendovene. Ciò che può succedere in prossimità di un orizzonte degli eventi non è facilmente prevedibile in termini della sola relatività, ma richiederebbe una complessa modellizzazione della materia, che può dare luogo a fenomeni diversi. Da un punto di vista osservativo le evidenze riguardanti fenomeni di orizzonte sono relativamente scarse ed indirette, anche se comunemente si ritiene che l’esistenza di oggetti astrofisici compatti identificabili con buchi neri si possa dare per assodata.Un orizzonte degli eventi è una superficie che circonda la singolarità; quest’ultima è quella piccolissima regione nella quale la densità è infinita e la materia è incredibilmente compressa, questo grazie ai fenomeni che caratterizzano il buco nero. La singolarità potrebbe non essere presente, secondo alcune teorie di gravità quantistica (gravità quantistica a loop), che postulano lo spazio-tempo come una entità dotata d’una ontologia non puramente matematica e suddiviso in elementi discreti del diametro di una lunghezza di Planck. Se il buco nero possiede la massa di una galassia, l’orizzonte è situato a 10^11 chilometri dal centro, se invece un buco nero ha la massa del sole, allora l’orizzonte dista un chilometro dal centro, infine se un buco nero ha la massa di una montagna, l’orizzonte è situato a 10^ −13 centimetri. La temperatura dell’orizzonte dovrebbe risultare talmente alta, da non essere nemmeno misurabile. Un orizzonte degli eventi divide lo spaziotempo in regioni causalmente sconnesse, dal momento che esse non possono interagire tramite alcunché.

Fenomeni di orizzonte possono darsi in varie circostanze, anche in assenza di campi gravitazionali, come nel caso dello spazio-tempo piatto visto da un osservatore uniformemente accelerato (metrica di Rindler). Il caso in genere più divulgato è quello dell’orizzonte degli eventi di un buco nero, spesso del tipo di Schwarzschild. Risulta possibile determinare il moto di un oggetto che si diriga in caduta libera verso un tale orizzonte, trovando che per un osservatore esterno l’attraversamento dell’orizzonte non avviene mai e l’eventuale radiazione emessa dal corpo in caduta appare sempre più spostata verso le basse frequenze (si ha il cosiddetto fenomeno del redshift). Si può anche determinare che l’osservatore in caduta libera non avverte alcunché di fisicamente significativo all’atto dell’attraversamento dell’orizzonte, a parte le forze di marea che peraltro possono essere molto intense ma sono avvertite anche a distanza maggiore.

Alcuni dei problemi più attuali riguardanti la fisica degli orizzonti sono l’emissione della radiazione di Hawking, l’entropia dei buchi neri e le questioni correlate, ad esempio il merging di buchi neri. Ipoteticamente, un orizzonte degli eventi può sempre esistere in un universo, per un osservatore in un dato punto dello spazio-tempo, che rimane nella stessa posizione co-movente. Quando un universo si espande abbastanza rapidamente, ad esempio (in cosmologia) un Universo di de Sitter, è possibile che esista un orizzonte degli eventi. Un orizzonte degli eventi molto singolare, può essere ipotizzato in un condensato di Bose-Einstein, in cui la luce rallenti fino a 60 chilometri l’ora, se il condensato ruota su sé stesso con una velocità maggiore. L’orizzonte degli eventi è distinto dall’orizzonte delle particelle.