L’approccio quantistico
Nel 1994 usciva in contemporanea nelle librerie inglesi ed americane un volume scritto da un famoso fisico dell’Università di Oxford R. Penrose e intitolato “Le Ombre della Mente”. Questo libro, per le tesi che prospettava nonché per l’autorevolezza del suo autore, mise in subbuglio il mondo medico-scientifico dell’epoca. La tesi principale sostenuta da Penrose ruotava attorno all’inadeguatezza dei modelli interpretativi dei “processi cognitivi” e sulla possibilità di trovare strade alternative per spiegare le dinamiche degli “atti mentali”. Rifacendosi ad alcune pionieristiche ricerche dell’anestesiologo S. Hameroff e del neurofisiologo B. Libet, Penrose ipotizzò che i processi cerebrali come la coscienza o la consapevolezza dovessero essere direttamente collegati al fenomeno fisico noto col nome di “coerenza quantistica”. La “coerenza quantistica” è quel meccanismo fisico per cui i metalli portati a bassa temperatura manifestano il fenomeno della superconduttività. A temperature molto basse infatti, alcuni metalli possono condurre l’elettricità senza opporre resistenza. Una corrente immessa in una spira superconduttrice scorrerebbe per un tempo infinito. Il segreto di questo fenomeno è che gli elettroni che trasportano la corrente elettrica si muovono tutti insieme in modo coerente, come se fossero una unica gigantesca particella. La conseguenza di questa “pan-armonia” è che la corrente elettrica scorre praticamente senza ostacoli. Una situazione simile -seppur in condizioni ambientali decisamente diverse- avviene, secondo Penrose, anche a livello cerebrale (al livello dei tubuli). Il cervello umano è costituito da miliardi di neuroni (il neurone è la cellula fondamentale del sistema nervoso) che a loro volta sono costituiti da migliaia di microtubuli i quali sono composti da enti ancor più piccoli chiamati tubuli. Ora, a parere di Penrose, l’evento cosciente nell’uomo, il passaggio cioè dallo stato di pre-coscienza allo stato di coscienza, avviene al raggiungimento da parte dei tubuli dello stato di massima “eccitazione coerente”. Come gli elettroni nella superconduttività (i quali muovendosi all’unisono permettono alla corrente di fluire senza ostacoli) così la globalizzazione della coerenza tra i tubuli cerebrali permette il verificarsi del processo cognitivo.Il tempo di transizione dalla fase pre-cosciente alla fase cosciente con la conseguente attivazione del segnale motore che consente ad esempio di muovere un braccio, dura circa mezzo secondo. Il susseguirsi delle transizioni dal livello minimo al livello massimo di coerenza dei tubuli, costituisce il “corso della coscienza” ; lo scorrere del tempo.
Comparando i risultati dei diversi studiosi che nel tempo si sono occupati di coerenza quantistica applicata ai sistemi biologici (Fröhlich 1975, Grundler e Keilmann 1983, Marshall 1990, Penrose 1994), unitamente a specifici studi di meccanica ondulatoria (Rossi e Cantalupi 1995), si evince che esiste una frequenza di eccitazione coerente per i neuroni cerebrali ed i suoi sub-componenti comune a tutti i lavori di coloro i quali si sono occupati di queste ricerche. Questa oscillazione, di cui nessuno prima d’ora aveva enfatizzato l’importanza o aveva notato la sistematica ricorrenza nei lavori sull’argomento, copre frequenze che vanno da dieci a cento miliardi di cicli al secondo (dove un ciclo al secondo rappresenta il tempo impiegato da un sistema eccitato per compiere un’oscillazione completa). Ora, queste frequenze non devono essere confuse con le oscillazioni che normalmente si registrano durante le sedute elettroencefalografiche (le quali, per altro, hanno frequenze molto basse) ; esse in teoria assumerebbero le caratteristiche di una vera e propria vibrazione dei processi profondi del cervello, una oscillazione dei nostri stessi pensieri. Se risultasse verificata sperimentalmente questa potente “pulsazione cerebrale”, si potrebbe aprire la strada verso nuove forme di cura dei disturbi cerebrali.
Scienza, filosofia e religione cercano da secoli di rispondere alla classica domanda :” Che cos’è la mente?”, ma le diverse soluzioni proposte sono sempre state parziali e spesso in contrasto reciproco: in pratica mai nessuna spiegazione è risultata davvero valida ed esauriente. Gli stessi psicologi sono poco soddisfatti delle teorie e delle tecniche sviluppate dalla loro disciplina nel corso degli ultimi decenni. Vediamo allora di partire da qualche punto fermo.Al di là delle convinzioni personali e religiose, oggi la scienza ci informa con ragionevole certezza che il processo del pensiero è dovuto a fenomeni chimici e fisici che avvengono nel cervello e nel sistema nervoso a livello microscopico, ovvero a livello molecolare ed atomico. Il funzionamento della natura a livello atomico e sub-atomico è governato dalle leggi della cosiddetta “meccanica quantistica”, una teoria fisica sviluppata agli inizi del secolo ventesimo, che risulta molto valida e precisa ma che presenta risvolti molto strani o perfino paradossali. A livello sub-atomico la materia perde le familiari proprietà… “materiali” e si manifesta invece come un gioco di forze e di onde. Chi ha studiato un po’ di chimica sa che l’atomo è molto stabile e può essere considerato una pallina “solida”. Il modello fondato su particelle “dure” però fallisce quando si analizza la struttura interna dell’atomo: la “solidità” dell’atomo è creata in realtà da un gioco di forze che si crea al suo interno tra gli elettroni, i quali non si comportano come vere e proprie “particelle” o “corpuscoli” materiali ma si distribuiscono spazialmente in determinate “nuvole elettroniche” o “orbitali“. In realtà la questione è più complessa di quanto si può dedurre da questa semplice descrizione: tali orbitali in realtà sono delle “onde risonanti” che obbediscono alle leggi della meccanica quantistica, le quali presentano diversi aspetti paradossali. E’ vero che il “capriccio” di voler accostare il funzionamento della mente alla meccanica quantistica sembra una specie di “moda”, diffusa specialmente tra gli scienziati con propensioni “new age”, ma vi sono diverse conferme scientifiche a riguardo .Se la mente umana è veramente capace di agire a livello quantistico, essa può avere delle grandi potenzialità inespresse (nettamente superiori a quanto generalmente si ritiene). Centinaia di ricerche scientifiche (pubblicate fin dal 1970, per esempio su Le Scienze n.45 del Maggio 1972) hanno dimostrato che una certa tecnica mentale molto semplice, chiamata TM, è capace di “ripulire” il sistema nervoso stesso da stress e tensioni, apportando effetti benefici di grande portata sull’organismo, sia a livello fisiologico che psicologico. Alcuni scienziati sostengono che la TM agisce sul sistema nervoso a livello quantistico e riesca portarlo al suo stato di “minima eccitazione”. Si tratta di una “tecnica-gioiello” che implica e riassume in sé le conoscenze di varie scienze, dalla fisica alla psicologia, dalla neurologia alla filosofia… E quindi presuppone anche un’integrazione ed una sintesi di varie discipline, oltre ad avere di per sé una straordinaria utilità pratica.
———————————————————————————————————————————
Piccola parentesi:
Solo pochi scienziati nutrono ancora dei dubbi sul fatto che la meccanica quantistica giochi effettivamente un ruolo determinante nel processo del pensiero, ma per contro molti altri (a partire da Bohr, Eddington e Wigner negli anni ’20, per arrivare a Wheeler e Penrose) hanno fortemente sostenuto questa tesi ed oggi vi sono fortissimi indizi a suo favore ed anche alcune conferme. Occorre ribadire che la meccanica quantistica, nonostante le sue apparenti stravaganze, ha sempre dimostrato una straordinaria validità (nell’ambito di sua pertinenza). Senza voler considerare i controversi risultati ottenuti dalla fisica nucleare, la teoria quantistica ha permesso di creare tecnologie importantissime ed oggi familiari, dal laser ai semiconduttori (che hanno permesso uno sviluppo enorme dell’elettronica, specialmente in ambito digitale, con la conseguente rivoluzione informatica degli ultimi decenni).
———————————————————————————————————————————–
Quello che il Teorema di Bell sembra accertare, poiché si basa su fatti sperimentali, corrisponde al modello delle menti unificate: menti che trascendono spazio, tempo e persone individuali; anche questo modello si basa su fatti. Anche se la teoria quantistica viene sostituita da un’altra teoria, e se le nostre teorie sulla psicologia e sulla mente sono rimpiazzate da altre, questi fatti rimangono. Essi ci dicono che il mondo è non localizzato e che, se guardiamo abbastanza attentamente, possiamo vedere chiaramente prove di questa non localizzazione nelle nostre vite quotidiane. La visione popolare della mente e del sé conscio di una persona come di un quid localizzato, che occupa uno spazio preciso, dà naturalmente luogo alla nostra convinzione di essere osservatori situati in un corpo da cui guardiamo la realtà a esso esterna. Questa teoria ha avuto una forza poderosa nell’intera storia della nostra cultura ed è alla base della scienza classica, secondo cui noi possiamo osservare e misurare da un punto di osservazione esterno, e poi riflettere sul possibile significato di tutto quanto; tuttavia nella fisica moderna, essa è andata in frantumi. Attualmente la maggior parte dei fisici ritiene che sia semplicemente impossibile spiegare le scoperte della loro scienza attenendosi a questa ipotesi. La maggioranza della comunità scientifica aderisce alla cosiddetta «interpretazione di Copenaghen» della fisica moderna (così chiamata perché Niels Bohr, il suo primo ideatore, era danese). Secondo quest’ottica, a livello atomico, un mondo reale semplicemente non esiste fintanto che non viene compiuta una misurazione o un’osservazione. Prima che ciò si determini, c’è soltanto una varietà di possibili esiti per ciascun evento successivo, ciascuno con la sua possibilità di realizzarsi una volta che l’osservazione venga effettuata. L’osservatore (o, secondo alcuni fisici, uno strumento di misurazione che funga da suo agente) compie l’atto decisivo di far «collassare» tutte le possibilità consistenti in un singolo esito coerente che solo allora può essere definito evento. Prima di questo momento non siamo autorizzati a parlare di un mondo reale di cose ed eventi, ma solo di possibilità con il potenziale di essere realizzate.Solo combinando fra loro in un’unità singola l’osservatore e quanto viene osservato la visione del mondo può avere senso. Qui abbiamo una delle più radicali differenze fra la concezione moderna del mondo alla luce delle scoperte della Meccanica quantistica e quella classica. L’idea di una realtà eterna e fissa che segua il suo corso del tutto indipendente da un osservatore è stata superata nella fisica moderna da una concezione che fondamentalmente incorpora umanità in tale realtà.
La Meccanica quantistica nacque al principio del secolo e crebbe come una teoria completamente rivoluzionaria che rovesciò le idee prevalenti fra i fisici dell’epoca Vittoriana. Il modello classico sosteneva che l’atomo fosse composto di un nucleo attorno al quale orbitavano gli elettroni, come un sistema solare in miniatura. Si sapeva che gli elettroni hanno una massa pari a circa un millesimo di quella del protone (uno dei costituenti del nucleo) e che possiedono una carica negativa in grado di bilanciare quella del protone, che è positiva. Durante i primi decenni del secolo, però, si capì che questo modello non poteva funzionare. Tanto per cominciare, i matematici dimostrarono che gli elettroni non avrebbero potuto mantenere la propria orbita stabilmente come fossero stati pianeti, e si sarebbero fusi coi protoni del nucleo. Poiché era chiaro che nell’universo in cui viviamo ciò non accade, si assunse, correttamente, che il modello fino ad allora accettato doveva essere sbagliato. Grazie all’opera pionieristica di fisici come Planck, Bohr e Schrödinger, emerse un modello che descriveva la natura del regno subatomico in modo di gran lunga più sofisticato; questo nuovo modello portò con sé un certo numero di conseguenze apparentemente astruse che da allora come abbiamo più volte ripetuti, hanno gettato non solo i profani nella confusione. Uno dei padri della Meccanica quantistica, Niels Bohr, giunse persino ad affermare che «chiunque non resti scioccato dalla teoria dei quanti non l’ha capita». I problemi cominciarono davvero quando i fisici delle particelle si resero conto che l’elettrone non era una sferula di materia carica negativamente, ma poteva essere descritto solo in termini probabilistici. In altre parole, esiste un’elevata probabilità che un elettrone si trovi a una determinata distanza dal nucleo e una bassa probabilità che sia molto più distante o molto più vicino a esso. Legato a questo concetto è il Principio di indeterminazione annunciato da Werner Heisenberg nel 1927. Esso dimostra che esistono dei limiti all’accuratezza con cui possono essere misurate delle coppie di quantità fisiche. Ad esempio, se cerchiamo di misurare la posizione e la quantità di moto di una particella subatomica, lo stesso atto disturberà la particella a tal punto che non sarà possibile attribuire un valore preciso a entrambe le quantità nello stesso istante. Questa nebulosità è descritta dalla funzione d’onda – in altre parole, si tratta di una descrizione basata unicamente sulle probabilità. Ora, di primo acchito, questa potrebbe sembrare una faccenda da poco – che mai potrebbe accadere se non riuscissimo a definire con precisione l’esatta posizione delle particelle subatomiche? In realtà, questa è l’essenza stessa della Meccanica quantistica e sta alla radice di tutti i problemi che essa crea alla mente del profano. D’altra parte, questa è anche la ragione stessa per cui la Meccanica quantistica potrebbe plausibilmente aiutarci a spiegare alcuni fenomeni attualmente non spiegati.
Che cos’e` la “realta`” del mondo per la fisica quantistica? Sfortunatamente quella che noi percepiamo come realta` si scopre essere semplicemente una serie di incidenti di percorso. Se crediamo alla fisica quantistica, il mondo e` nelle mani di queste onde di probabilita`. Ogni tanto una di queste onde “collassa”, e allora, e soltanto allora, succede qualcosa (le quantita` fisiche assumono dei valori osservabili). La sequenza di quei “qualcosa” costituisce la realta` che percepiamo noi. Fu Von Neumann a chiarire gli estremi del problema. A far collassare la funzione d’onda e`, secondo la fisica quantistica, l’interferenza di un altro sistema. Per esempio, se cerco di misurare una quantita` di un sistema (la sua velocita`, per esempio), faccio collassare la funzione d’onda del sistema, e pertanto leggo un valore per quella quantita` che prima era semplicemente una delle tante possibilita`. E` il mio atto di osservare a causare la “scelta” di quel particolare valore della velocita` fra tutti quelli possibili. Ma “quando” si verifica quel collasso? C’e` una catena di eventi che porta dalla particella al mio cervello: la particella e` a contatto con qualche strumento, che e` a contatto con qualche altro strumento, che e` a contatto con il microscopio, che e` a contatto con il mio occhio, che e` a contatto con la mia coscienza… dove avviene di preciso il collasso? A che punto la particella smette di essere una funzione d’onda e diventa un oggetto con una velocita` ben precisa?
Il problema puo` essere riformulato cosi`: che cosa causa il collasso di una funzione d’onda? Basta la semplice presenza di un’altra particella nei dintorni del sistema? Oppure dev’essere un oggetto di grandi dimensioni? Oppure dev’essere per forza un oggetto in grado di osservare? Oppure dev’essere per forza una mente umana? Sappiamo che un uomo e` in grado di far collassare una funzione d’onda, in quanto gli scienziati possono misurare le particelle. Ma un insetto? Un insetto-scienziato sarebbe in grado di compiere le stesse osservazioni? Sarebbe in grado di far collassare una funzione d’onda? E un virus? Una pietra? Un albero? Un soffio di vento?…
Von Neumann si domandava cosa promuove un oggetto a “collassatore”. La fisica quantistica concede questo privilegio: i sistemi classici (come gli strumenti di misurazione o gli esseri umani, oggetti che hanno una posizione, una forma e un volume ben definiti) sono capaci di far collassare la funzione d’onda di sistemi quantistici (che sono invece pure onde di probabilita`) e pertanto di misurarli. Ma cosa determina se un sistema e` classico o quantistico? Anzi, come fa la natura a sapere quale dei due sistemi e` quello che misura e quale e` quello da misurare, in maniera tale che possa far collassare quello da misurare e non quello che misura? Perche’, quando misuro un elettrone, collassa l’elettrone e non collasso io? Intuitivamente, i fisici rispondono che un sistema per essere classico deve essere “grande”, in quanto l’indeterminatezza e` tanto maggiore quanto piu` ci si avvicina alle dimensioni della Costante di Planck. Ma questo significa semplicemente che gli oggetti “grandi” hanno un’immunita` dalle leggi quantistiche che e` basata soltanto sulla loro dimensione. Quantomeno bizzarro. Roger Penrose ha proposto che sia la gravita` a concedere quella immunita` speciale. Gli oggetti “grandi” deformano lo spazio-tempo e cio` in qualche modo causa il collasso spontaneo del sistema in una possibilita` ben precisa. Ecco perche’ i sistemi “grandi” hanno una posizione e una forma ben definita. Analogamente, quando il mio campo gravitazionale entra in contatto con quello di un sistema “piccolo” (che si comporta come un sistema quantistico), lo fa diventare parte di un sistema “grande” e pertanto di un sistema classico. E pertanto lo posso misurare.
Il fatto rimane che nulla nella fisica quantistica spiega cosa realmente accada quando un sistema quantistico “collassa”: il collasso corrisponde a un cambiamento nello stato del sistema, oppure corrisponde semplicemente a un cambiamento nella conoscenza che io ho di quel sistema? Naturalmente, viene subito la tentazione di puntare il dito verso la coscienza. Forse il collasso e` dovuto al fatto che un essere senziente compie la misurazione. Forse la mente entra nel mondo attraverso il pertugio lasciato aperto dal principio di indeterminazione di Heisenberg. Forse la fisica quantistica ci sta dicendo che la mente umana “deve” esistere affinche’ il resto dell’universo possa esistere, altrimenti non ci sarebbe nessuno ad osservarlo e cio` significa che resterebbe in eterno nel limbo delle possibilita`. La realta` e` il contenuto della nostra coscienza, come scrisse poco prima di morire Eugene Wigner. Un’altra possibilita` e` quella di negare semplicemente che si verifichi questo misterioso “collasso” della funzione d’onda. Invece di ammettere che il futuro venga scelto a caso ogni volta che la funzione collassa, uno puo` decidere che tutti i possibili futuri si verificano tutti insieme. In ogni secondo l’universo si divide in miliardi di altri universi, uno corrispondente a ogni possibile valore di ogni possibile quantita` che uno potrebbe misurare. E` questa la teoria di Hugh Everett: se qualcosa puo` succedere, allora succede… in qualche universo. Una copia di me esiste in ogni universo. Io osservo tutti i possibili risultati di una misurazione, ma lo faccio in universi diversi. Fra coloro che credono in questa ipotesi si contano luminari come David Deutsch e Stephen Hawking.
Wojciech Zurek pensa che tutto contribuisca al collasso, e che il collasso possa avvenire per gradi successivi. L’ambiente distrugge quella che Zurek chiama “coerenza quantistica”. E per “ambiente” intende proprio tutto, dalla singola particella che transita per caso fino al microscopio. L’ambiente causa “decoerenza” e la decoerenza causa una sorta di selezione naturale alla Darwin: lo stato classico che emerge da uno stato quantistico e` quello che meglio si “adatta” all’ambiente. Non sorprende pertanto che, studiando questo fenomeno, Zurek stia pervenendo a intriganti paralleli con il fenomeno della vita (l’altro grande mistero della natura e`, ovviamente, quello di come la materia vivente emerga dalla materia non vivente). Come fa il mondo classico, fatto di oggetti e forme e confini e pesi e altezze, ad emergere da un mondo quantistico, fatto soltanto di onde e di probabilita`?
Una coerente teoria della mente, basata da un lato sulle posizioni ontologiche di Heisenberg appena descritte, e dall’altro su quelle psicologiche diWilliam James (1842-1910), è stata sviluppata da Henry Stapp in una serie di saggi, raccolti nel 1993 in Mente, materia e meccanica quantistica. Nella sua opera principale, I principi di psicologia del 1890, William James aveva enunciato alcune posizioni pragmatiche (in accordo con la sua generale filosofia). Anzitutto, una teoria della mente degna di questo nome non può soltanto dissolverla nella descrizione di meccanismi comportamentali o neurofisiologici, ma deve essere in grado di rendere conto delle azioni più apparenti e costanti della coscienza: la libera scelta fra varie alternative, e il controllo del comportamento. Inoltre, poichè tutto ciò che possiamo sperimentare sono percezioni, l’universo deve essere riducibile ad un’unica sostanza (esperienza pura), di cui la coscienza è solo una parte. Infine, il riduzionismo psicologico non può basarsi esclusivamente sulla fisica classica, perchè essa non è in grado di assegnare ad un sistema complesso proprietà che non siano riducibili a quelle delle sue costituenti: l’introspezione mostra invece che i pensieri e la coscienza, nonostante la presenza di componenti, sono sistematicamente percepiti come sostanzialmente unitari.
Le ingiunzioni di James sono state sistematicamente disattese dalle teorie psicologiche dominanti del secolo, dal comportamentismo di Watson al darwinismo neurale di Edelman: esse rimuovono tutte il problema della coscienza, limitandosi a descrivere in maniera puramente classica le sue manifestazioni a vari livelli, dal sociologico al neurofisiologico. La fisica quantistica ha maturato i tempi di un cambiamento, ritrovandosi in perfetta sintonia con le posizioni di James: il collasso della funzione d’onda esibisce le stesse caratteristiche di scelta e determinazione della realtà attribuite alla coscienza, l’interpretazione di Copenaghen riduce l’intera realtà all’osservazione, e gli eventi quantistici rivelano un carattere olistico che non permette di ridurli al comportamento individuale delle loro parti. Mentre von Neumann e Wigner cercavano però di costruire una teoria mentale della meccanica quantistica, attribuendo ad una indefinita coscienza la causa del collasso della funzione d’onda, Stapp ribalta il loro approccio e costruisce una teoria quantistica della mente, definendo la coscienza come la manifestazione del collasso. In altre parole, nel cervello gli eventi si mantengono in inconscia sovrapposizione di stati fino a quando essi vengono resi psicologicamente coscienti dal collasso fisico della funzione d’onda, e la coscienza è quindi la controparte macroscopica del processo di fissazione delle strutture microscopiche del cervello (così come le sensazioni sono la controparte macroscopica del funzionamento dell’organismo).
A causa di un risultato di von Neumann , non ha importanza in che punto della catena di osservazione si suppone che il collasso avvenga, perchè i risultati sono largamente indipendenti da dove esso si situi: la precedente definizione è dunque compatibile con svariate ipotesi, in particolare che la coscienza sia un fenomeno di basso o di alto livello cerebrale (cioè, neuronale o integrato). Ciò che invece ha importanza è la relazione fra la struttura degli eventi cerebrali da un lato, e di quelli psicologici dall’altro: ed una volta postulata una corrispondenza fra gli eventi, è naturale estenderla anche alle loro strutture. Stapp propone dunque la seguente definizione: la coscienza è l’immagine isomorfa del collasso della funzione d’onda degli eventi cerebrali . Più precisamente un evento cosciente, cioè l’attualizzazione di una potentia cerebrale, crea una configurazione neuronale temporaneamente stabile detta simbolo , a sua volta costituita da componenti: in tal modo si genera una disposizione per l’attivazione di tutti gli altri simboli che hanno componenti in comune con quello, e si crea quindi una nuova potentia che attende di essere attualizzata da un successivo evento cosciente. La tendenza dei simboli a svanire crea la sensazione del fluire del tempo , l’insieme dei simboli attuali in un dato momento costituisce uno schema corpo-mondo che viene continuamente aggiornato, l’insieme dei simboli che persistono e a cui le sensazioni momentanee vengono riferite costituisce il senso del sè (un’esperienza cerebrale come tutto il resto), e l’integrazione quantistica degli eventi cerebrali viene percepita psicologicamente come l’ unità della coscienza . Poichè la realtà è costituita dalle attualità, che a loro volta sono determinate dalle potenzialità, ma non tutte le attualità sono eventi di natura cerebrale o umana, si può dire più generalmente che la mente è la manifestazione del processo di attualizzazione delle potentia , di cui la coscienza umana è dunque solo un aspetto particolare. Si arriva così per via fisica ad una teoria che ha vari aspetti in comune con quella filosofica esposta da Whitehead ne “Il processo e la realtà” . Tutto ciò che esiste, cioè la totalità delle attualità, si manifesta dunque come un atto creativo della mente universale, una scelta che allo stesso tempo è delimitata dallo spazio delle possibilità preesistenti, e restringe lo spazio delle possibilità future. E gli atti creativi della mente universale sono linearmente ordinati, poichè essi corrispondono a cambiamenti nello stato potenziale dell’universo, che è unico in ogni istante: dunque il tempo mentale è lineare , in accordo con l’esperienza, e in contrasto con il tempo fisico (in altre parole, l’evoluzione deterministica della funzione d’onda e il suo collasso si riferiscono a due tempi distinti, locale e relativistico l’uno, e globale e classico l’altro). Ma come si spiega il carattere unitario e globalmente coerente dell’attività mentale? James giunse al punto di mettere in dubbio il determinismo delle leggi fisiche, ciò che al suo tempo suonava ancora come una bestemmia, e aveva perfettamente ragione. Henry Stapp ritiene di aver trovato la risposta nella meccanica quantistica: lo stato fisico del cervello a un certo istante non è la collezione dei microstati delle parti del cervello ma l’onda interfenomenica quantistica che, a dispetto della causalità spaziotemporale, correla tra loro sincronicamente tutti gli stati locali della materia e veicola la probabilità delle transizioni di fase globali del cervello. In altri termini, la realizzazione fenomenica del mondo sarebbe pilotata e determinata dalla riduzione dei pacchetti d’onda quantistici che costituiscono gli stati fisici del cervello. Il fatto è che nell’universo di cervelli ne esistono tanti e, se le cose andassero come dice Stapp, si ricadrebbe nella solita tesi solipsista: che ognuno determina lo stato fenomenico del suo proprio mondo compresi gli stati mentali di tutti gli altri esseri coscienti dell’universo.Di fatto questa è l’unica visione concessa dalla meccanica quantistica dei sistemi finiti e coincide sostanzialmente con quella proposta da von Neumann nel 1931. Ma la meccanica quantistica dei sistemi infiniti, fondata dallo stesso von Neumann tra il 1936 e il 1946, fa giustizia di questo tipo di interpretazioni perché introduce una nuova dimensione nella rappresentazione del mondo fisico: l’emergenza fenomenica del mondo macroscopico come processo termodinamico-informazionale. La vera “mente” rivelatrice della sostanza interfenomenica del mondo fisico è la catena causale, ma non deterministica, degli eventi di condensazione bosonica e rottura spontanea delle simmetrie causate dall’espansione termodinamica del cosmo macroscopico, indipendentemente dall’esistenza di esseri viventi. È sul terreno dei processi termodinamici non in equilibrio che si trova la risposta. Da questo punto di vista Ilya Prigogine ha ragione.Dove Prigogine ha torto è nel trascurare, se non ignorare, che i processi informazionali che generano la complessità del vivente non sono quelli descritti nella termodinamica dei sistemi non in equilibrio, di cui è il massimo sostenitore e propugnatore, ma nei processi algoritmici basati sulla formazione dei linguaggi a elementi strutturali discreti. I sistemi termodinamici di Prigogine sono volatili e incapaci di raggiungere livelli di organizzazione paragonabili a quelli che si riscontrano nel vivente.La questione che allora si pone è questa: è la teoria dei processi algoritmici in grado di spiegare l’emergenza della coscienza? In linea di principio sì: sulla base delle teorie degli algoritmi autoreferenziali di Gödel e degli automi capaci di autoriprodursi di von Neumann. Queste modelli sono in grado di dire molto circa le condizioni strutturali e funzionali che permettono la generazione di un processo informazionale capace di interpretare sé stesso. Solo un processo capace di “interpretazione universale”, nel senso della teoria degli algoritmi, è in grado di essere autoreferenziale. Luce, suoni e azioni fisiche sul mondo esterno veicolano informazione connettendo in un processo informazionale universale tutte le cose esistenti. Per un interprete universale particolare, i segnali fisici sono equivalenti a fibre nervose che trasmettono e ricevono informazioni; in questo modo, esso stesso diventa centro integrante di un processo informazionale che si estende enormemente al di fuori del suo organismo fisico. Questo processo globale comprende altri interpreti universali. Tutte le cose visibili, udibili e trasformabili che esistono in natura costituiscono per ogni interprete universale una sorta di gigantesca memoria esterna che alimenta la sua attività di interpretazione universale. La teoria di Stapp lascia aperti i problemi del libero arbitrio e del determinismo, perchè non decide se il collasso della funzione d’onda sia frutto del caso o di qualche scelta ad un livello più profondo. Presentando però la coscienza umana ad un tempo come la manifestazione di un processo naturale e la localizzazione di un processo universale, essa reintegra l’uomo nella natura e nell’universo, e contrasta in tal modo le nefaste e tuttora influenti visioni di Bacone e Descartes, che vedevano da un lato la natura come terra di conquista scientifica e tecnologica dell’uomo, e dall’altro la mente come un fenomeno estraneo alla natura.
I quanti e la PSI
La scoperta del paradosso EPR (la sigla è data dalle iniziali dei nomi degli scopritori,ossia Einstein, Podolsky e Rosen),nacque da un intento polemico. Il criterio per cui Einstein ne elaborò il principio era dettato dal ricorrente proposito di evidenziare l’insensatezza della concezione indeterministica (addirittura “indeterminata” secondo la tesi più radicale) dei microfenomeni implicita nell’interpretazione classica di Bohr e Heisemberg. Possiamo evidenziarne il significato con un esempio semplice. Tra le dinamiche che caratterizzano il comportamento di una microparticella c’è quella del poter decadere in due altre particelle le quali, automaticamente, si allontanano l’una dall’altra secondo due diverse direzioni. Ora, tali due particelle, così scaturite da una comune origine, debbono mantenere, anche dopo il distacco, certi specifici rapporti di proprietà quantiche. Prendiamo, ad esempio, la proprietà chiamata spin, facilmente rappresentabile con il modello di un movimento a trottola che la particella compie attorno a un certo asse. Per una legge – detta di “conservazione del momento angolare” -, imposta sempre dall’esser originate dalla stessa particella, se una delle due ha l’asse del movimento a trottola orientato verso l’alto, l’altra deve necessariamente averlo rivolto verso il basso. Anche il valore numerico deve esser perfettamente complementare. Ad esempio, se lo spin della prima particella ha valore 1/2 (secondo l’immagine semplificata della trottola, compie mezzo giro su se stessa nell’unità di tempo), quello dell’altra deve avere valore -1/2. Orbene, per ilprincipio di indeterminazione di Heisenberg, finché nessuna delle due particelle è osservata/misurata da uno sperimentatore, non ha lo spin (come ogni altra caratteristica fisica misurabile) in uno stato specifico. Si trova, in base allo stesso principio, in uno stato di indeterminazione quantica, o di sovrapposizione potenziale di stati. Solo l’atto della misura gli conferisce uno spin reale e determinato. Supponiamo ora di compiere proprio questa operazione fatidica della misura e che si trovi lo spin di una delle due particelle “ridotto”, o “collassato”, nello stato di 1/2. Il che provocherà istantaneamente anche la riduzione dello stato dello spin della seconda particella al valore di -1/2. Come dire che, determinando la realtà specifica di un oggetto posto qui davanti ai miei occhi, automaticamente determino la realtà di un altro ben distante da me e su cui non posso influire causalmente in alcun modo. La palese assurdità deriva dal fatto che la seconda particella è ora un sistema fisico del tutto separato e può trovarsi anche all’altra estremità della galassia al momento della misura della prima. Il carattere istantaneo dell’effetto violerebbe inoltre quel limite assoluto della propagazione degli effetti fisici che è la velocità della luce. Da tener presente anche l’eventualità che, non esistendo nell’universo una particella che non abbia interagito con altre, il paradosso E.P.R. prospetterebbe un’amplificazione a cascata del fenomeno di interconnessione quantica configurando l’impossibilità dell’esistenza di un oggetto microfisico realmente e totalmente separato dagli altri. Abbiamo detto che Einstein considerò l’ipotesi di questa strana “telepatia” tra sistemi microfisici come una prova di impossibilità, un’implicazione assurda che confutava evidentemente la tesi dell’interpretazione di Bohr e Heisenberg. Quando tuttavia, diversi anni dopo, grazie agli studi di un fisico irlandese, John S. Bell, fu possibile sottoporre a verifica sperimentale l’effetto E.P.R., ciò che emerse suonò di nuovo come un’amara beffa per la teoria di Einstein: quell’effetto fantasma di contatto istantaneo tra sistemi microfisici separati esisteva davvero. Flussi di coppie di particelle originate nel modo anzidetto, una volta divenute sistemi indipendenti, mostravano accordi statistici delle proprietà prese in esame che non potevano essere dovuti al caso. E’ proprio questa interconnessione universale degli enti fisici che costituisce un motivo di interesse per la parapsicologia, tenuto conto che la psi, la facoltà oggetto del nostro studio, è, abbiamo visto, sostanzialmente un annullamento delle separazioni, delle distanze, sia spaziale che temporale. Vedremo ora specificatamente come si colleghi al fenomeno il nostro problema.
Occorre a questo punto una precisazione. La teoria della meccanica quantistica che abbiamo esposto fin qui non è l’unica esistente (anche se è quella ufficialmente accettata dalla scienza). Esiste almeno una scuola alternativa, il cui iniziatore fu Einstein, che non accetta l’interpretazione della natura indeterminata, soggettivista e a-causale dei microfenomeni come elaborata da Bohr e Heisenberg. E’ una teoria che rivendica la completa realtà dei microfenomeni indipendentemente dall’osservatore e la loro evoluzione del tutto deterministica nel tempo. La distinzione è importante per inquadrare organicamente il rapporto con la parapsicologia. Ci sono infatti almeno due criteri per cui la facoltà paranormale, se esiste, può essere collegata all’apparato concettuale della meccanica quantistica. Si tratta per la verità di due criteri strettamente collegati tra loro, ma è opportuno distinguerli per cogliere meglio l’articolazione del problema. La distinzione è imposta dal fatto che tali due criteri si collegano proprio ai due diversi modi di interpretare la meccanica quantistica che abbiamo esposto. Ora, se il primo gruppo, quello ortodosso dominante, era genericamente favorevole alla possibilità dell’esistenza delle facoltà paranormali, quello dell’interpretazione alternativa era, possiamo dire, genericamente contrario.
Lo stesso Einstein, abbiamo visto, associava i paradossi della meccanica quantistica a possibili effetti paranormali proprio per evidenziarne l’assurdità. Un fisico italiano, seguace della scuola di Einstein, Franco Selleri, riferisce il seguente aneddoto. Durante una breve conversazione avuta da Einstein con un importante fisico teorico della scuola di Bohr, mentre quello dichiarava di essere portato a credere nella telepatia, Einstein suggerì a titolo di provocazione: “”E’ una cosa che probabilmente riguarda più la fisica che la psicologia”. La risposta, riferiva ironicamente Einstein, fu un semplice “sì”” . Ma qual’era il motivo di fondo per cui i teorici della concezione ortodossa della quantistica erano o potevano essere favorevoli alla parapsicologia? La risposta è semplice: era il principio della forte supremazia della mente sulla materia che evidentemente scaturiva dal concetto del ruolo fondamentale dell’osservatore nel determinare la realtà del fenomeno osservato. E’ un elemento concettuale che è stato designato in molti modi. Si è parlato di “mentalismo”, di “idealismo”, di “psicologismo” della meccanica quantistica. L’elemento che, in ogni caso, veniva a fungere da supporto all’ipotesi della psi erano le potenzialità di applicazione del principio. Se era la mente dell’osservatore ad essere così decisiva nel determinare la realtà dei fenomeni osservati, appariva possibile che in condizioni eccezionali tale supremazia si amplificasse fino a produrre fenomeni eccezionali, impossibili in base alla logica dell’esperienza quotidiana. E’ una fruibilità teorica che è messa in evidenza anche dal Selleri: “Si tratta evidentemente (…) di una descrizione assai vicina alla “parapsicologia” per via dell’azione diretta del pensiero sul mondo materiale” . Veniamo ora alla scuola antagonista rispetto a quella di Bohr e Heisenberg. Ovviamente per costoro, propugnando una visione della microrealtà integralmente determinista e priva di ogni influsso “mentalista”, non c’era alcuno spazio per una qualche forma di misticismo o di paranormalità.Considerando ora i punti significativi di questo indirizzo di pensiero vediamo come possa legarvisi il secondo criterio di connessione dell’ipotesi della psi alla meccanica quantistica.
E’ ora importante notare che vi fu chi escogitò un espediente concettuale per risolvere il rompicapo della natura indeterminata dei microfenomeni: quello di ipotizzare l’esistenza di alcuni elementi incogniti – le “variabili nascoste” (hidden variables) – una volta conosciute le quali (almeno in teoria), si sarebbe potuto constatare una relazione perfettamente causale e integralmente determinata tra l’evento sub-atomico e il sistema macroscopico di rilevamento. Il processo di collassamento, cioè, per cui il ventaglio di particelle virtuali si riduceva di colpo a una sola particella reale all’atto dell’osservazione, appariva del tutto probabilistico perché non eravamo a conoscenza di un certo parametro di comportamento, diciamo difficilmente accessibile, del fenomeno. Il primo a proporre questa idea fu Von Neumann, uno dei maggiori matematici del secolo che, assieme ad altri fisici, tutti della scuola di Bohr, come Eugene Wigner, dette alle variabili nascoste quel significato mentalista tipico di quell’indirizzo, avanzando l’ipotesi che fossero da identificarsi addirittura con la “coscienza” dell’osservatore.
Ebbene i seguaci della scuola di Einstein si dettero da fare per cercare di individuare e definire queste variabili nascoste in base a un criterio del tutto diverso, contando cioè sulla possibilità che fossero qualcosa di specificatamente fisico e di – almeno in via di principio – caratterizzato da valori misurabili. Tra tutti i tentativi di ottenere un’individuazione specificatamente fisica delle variabili nascoste, nonché di dare un volto causale alla meccanica quantistica, spiccano gli studi di un fisico americano, David Bohm. Tutti i membri della scuola di Einstein danno un ruolo centrale alla sua teoria. Secondo Bohm la variabile nascosta condizionante le operazioni di misura del microfenomeno era semplicemente la posizione della microparticella, posizione all’atto pratico inconoscibile, ma in teoria realmente definita da valori precisi. Bohm compì inoltre il passo impegnativo – lo riferiamo senza entrare in dettagli – di dare alla funzione d’onda (che per i teorici ortodossi, ricordiamo, era solo una pura astrazione matematica) un significato fisico, intendendola come la descrizione di una sorta di campo di forza in grado di influire sull’evoluzione dello stato della particella (intesa questa, si badi bene, come un ente del tutto reale e determinato). Formulò in tal modo la teoria della cosiddetta “onda pilota”, una conformazione ondulatoria la cui intensità nei diversi punti determinava la probabilità di trovare in tali stessi punti la particella.
Ma la teoria di Bohm conteneva una caratteristica alquanto poco gradita ai seguaci della scuola di Einstein: era una teoria prettamente non-locale. In altri termini proprio quell’effetto fantasma a distanza, quella strana “telepatia” tra oggetti del mondo microfisico, sulla cui assurdità Einstein contava di confutare la concezione di Bohr, veniva a costituire giusto il cuore della teoria. L’immagine del vecchio, familiare mondo della separabilità, in cui le cose e gli individui sono ben isolati l’uno dall’altro, era messo in discussione e al suo posto subentrava quella di un mondo tutto percorso da una fitta rete di interconnessioni quantiche che in modo sottile finiva per collegare tutti gli enti o oggetti dell’universo.
I seguaci di Einstein cercarono subito di eliminare l’inconveniente. Primo tra tutti John Bell (che pur ammirava la teoria di Bohm) provò in ogni modo di depurarla dalle implicazioni non-locali. Ma non vi riuscì, come non vi riuscirono altri animati dallo stesso istintivo rifiuto. Del resto i nuovi esperimenti che, via via, andavano dimostrando l’esistenza dell’effetto E.P.R., fornivano anche un sostegno sperimentale alla tesi della non-località. Quello che è interessante osservare dal nostro punto di vista parapsicologico è che con i tentativi di contestazione della teoria quantistica di Bohr veniva reintrodotto dalla finestra giusto quello che si era tentato di cacciare dalla porta. Bohm approdò, infatti, tramite il suo universo integralmente unitario, alla stessa concezione mistica più o meno propria dei membri della scuola di Copenhagen-Goettingen, con le stesse ampie concessioni alla filosofia orientale. Naturalmente, nel cercar di giustificare l’esistenza della psi con la visione unitaria e interconnessa del cosmo proposta da Bohm, poteva esserci qualche difficoltà nell’applicare il principio al mondo umano cui sostanzialmente si riferisce la parapsicologia (la “telepatia” presupposta nell’effetto E.P.R. è solo una “telepatia” tra particelle). Ma il fenomeno accertato appariva indubbiamente un ragionevole sostegno all’ipotesi della facoltà.
Dobbiamo tuttavia osservare che alle straordinarie possibilità dell’effetto E.P.R., ancora i seguaci della scuola di Einstein, riuscirono a porre dei limiti, e questo sempre nell’obbiettivo di costruire teorie causali della meccanica quantistica, alternative alla concezione classica. Spicca in questa direttiva il lavoro di tre fisici italiani: Gian Carlo Ghirardi, Alberto Rimini e Tullio Weber, che pubblicarono una dimostrazione giudicata ineccepibile e apprezzata anche a livello internazionale, della non trasmissibilità di alcun messaggio tramite l’effetto E.P.R.. Senza entrare in dettagli diremo che punto centrale della dimostrazione era l’assoluta casualità, all’atto della misura, del processo di riduzione del vettore di stato, l’impossibilità, cioè, di far collassare la particella nello stato specifico “voluto” tra quelli possibili. Ad esempio, nel caso dello spin, non c’era alcun modo di far collassare nei valori +1/2 o -1/2 la sua misurazione nella particella direttamente osservata. Era quindi del tutto impossibile alterare in modo voluto lo spin dell’altra particella, separata tramite il processo di decadimento. Non era, ancora, possibile quindi utilizzare l’effetto per inviare da una sistema microfisico all’altro (ovvero da un punto all’altro dell’universo) una sequenza di segnali in grado di veicolare un qualunque messaggio. Sembrerebbe a questo punto di essere di fronte a un insieme di dati del tutto contraddittorio. Abbiamo la prova dell’esistenza di un effetto con tutte le caratteristiche potenzialmente attribuibili alla psi e tuttavia, a chiosa della promettente scoperta, spunta una dimostrazione che vieta indissolubilmente la trasmissione di qualunque tipo di comunicazione tramite quello stesso effetto. E’ un problema irrisolvibile? Cerchiamo di capirlo nei particolari.
Innanzitutto analizziamone meglio le caratteristiche. Abbiamo detto, i fisici chiamano “non-località” – o “non-separabilità” – la natura interconnessa del cosmo implicata nel paradosso E.P.R.. Designano inoltre con il termine difficilmente traducibile di entanglement (“impiccio”, “groviglio”, “garbuglio”) lo strano legame che unisce le coppie di particelle separate nell’esperimento classico del decadimento da una particella “madre”. Possiamo capire lo sconcerto comunicabile a chi ne intraprende lo studio con l’ovvia constatazione che tutta l’esperienza del nostro rapporto con la realtà è basata sulla certezza che oggetti ed eventi sono ben demarcati l’uno dall’altro. Se, per un tracollo finanziario, uno speculatore in borsa si suicida a New York, la mia coscienza è per fortuna ben schermata dal percepire il suo disagio. E considerato tutto quel che di traumatico accade nel mondo la separabilità è in fondo anche una garanzia per la tranquillità della nostra “privacy” individuale.
Ma che cosa si trasmette attraverso la non-località? Un’intuizione? Un pensiero? Un significato? Un’emozione? Appare innanzitutto difficoltoso capire come si struttura il fenomeno. “Questa correlazione quantistica – afferma Roger Penrose – è una cosa misteriosa che sta tra la comunicazione diretta e la separazione completa e che non ha alcuna analogia con qualcosa di classico di qualunque tipo” . Ricordiamo che Einstein l’aveva definita “azione spettrale a distanza”. Shimony preferisce quella di “passione a distanza” . Per chiarire i termini del possibile rapporto con la psi è importante a questo punto elencare alcune caratteristiche fondamentali della non-località. E’ un compito che svolge Ghirardi in una parte di un suo libro . Secondo il fisico milanese, l’incomprensibilità (dal punto vista fisico) degli effetti della non-località è ascrivibile a tre caratteristiche: a) non variano con la distanza (un millimetro o una distanza intergalattica non comportano alterazioni nell’efficacia della comunicazione); b) sono assai selettivi (la connessione tra i due componenti di un sistema entangled è molto specifica nelle caratteristiche); c) comportano una trasmissione di effetti assolutamente istantanea, non implicante cioè in alcun modo una durata temporale (violerebbero cioè uno dei presupposti essenziali della relatività che vieta a qualunque fenomeno fisico una velocità di propagazione superiore a quella della luce).
E’ un elenco che, anche a prima vista, non può non colpire un parapsicologo perché si tratta esattamente delle caratteristiche essenziali che, dopo un secolo di ricerca, risultano attribuibili all’ipotetica facoltà paranormale. Discutiamo ora brevemente le tre caratteristiche in rapporto a tale secondo punto di vista parapsicologico. L’indipendenza dalla distanza della psi è un dato che ci deriva dalla valutazione di ampia casistica sia spontanea che sperimentale. E’ vero che non sono mancati ricercatori come F. Cazzamalli che hanno ritenuto di individuare, sul piano sperimentale, un’affinità della ESP con le onde elettromagnetiche, ma è una tesi ampiamente smentita da una vasta massa di dati e di relazioni. Essa, se esiste, funziona altrettanto bene a pochi metri di distanza quanto da un continente all’altro.
La psi, inoltre, è evidentemente selettiva. Anche se può essere improprio parlare in termini di emittente e di ricevente, c’è in essa qualcosa che, pur sporadicamente, mette in collegamento due o più soggetti – o un soggetto e un evento – specifici sulla base di particolare significato, ricordo o esperienza. Ad esempio, un ricercatore, come N. Marshall, ha elaborato una complicata teoria detta “influenza eidopica” proprio per giustificare questo carattere altamente selettivo della ESP. Naturalmente c’è da tener presente la trasposizione di campo. Gli esseri umani, abbiamo detto, non sono le microparticelle. Uno dei dati emergenti è che la psi, se esiste, avviene probabilmente da inconscio a inconscio (anche se infinite possono essere le modalità) e comporta quindi il problema di un’elaborazione, almeno in parte, inconsapevole. Il che a sua volta comporta, quasi inevitabilmente, distorsioni e inesattezze. Ma il nodo simbolico che sta al centro della comunicazione è per lo più facilmente individuabile e riconoscibile. La stessa considerazione vale per la presunta istantaneità dell’effetto. L’elaborazione inconscia può comportare, oltre alle distorsioni, dei ritardi per la manifestazione della psi. La percezione paranormale può, cioè, impiegare del tempo per affiorare alla soglia della coscienza.
Ma tutto della casistica lascia credere che tali ritardi non siano dovuti a una vera durata temporale della trasmissione. La psi, se esiste, di per sé è istantanea, non comporta intervalli resi necessari da una presunta velocità-limite dei suoi processi interattivi. Ma un’altra caratteristica della non-località, facilmente deducibile dalle tre elencate da Ghirardi, che la rende ancor più affine alla psi, è il carattere a-causale dei suoi effetti. Particolarmente il fatto che i suoi processi viaggiano a velocità superluminale elimina ogni ipotesi di causalità in senso fisico. Il problema fu già messo in rilievo da Bohr quando, preso per la prima volta in considerazione il paradosso E.P.R., parlò della necessità di “una rinuncia definitiva all’idea classica di causalità” . “Questi effetti quantistici non locali – nota anche Paul Davies – sono in verità una forma di sincronicità nel senso che stabiliscono un legame (…) fra eventi per i quali qualunque forma di legame causale è proibita” . Parlare di a-causalità nell’ambito della parapsicologia richiama istintivamente alla mente Jung e la sua teoria della sincronicità (e in effetti Davies nella sua citazione si riferisce proprio all’illustre psicanalista svizzero). I fenomeni paranormali secondo Jung sono eventi associativi, “sincronici”, prodotti da dei simboli archetipi (appartenenti a un inconscio molto profondo di natura collettiva) e attuantesi secondo una dinamica del tutto a-causale, indipendente dallo spazio e dal tempo. Certamente è per questa implicazione di fondo che si instaurò tra Jung e un fisico come W. Pauli, anch’egli tra i fondatori della quantistica, un intenso dialogo. Paul Davies nota che per comprendere alcuni fenomeni o problemi di natura prettamente fisica, ma inspiegabili secondo le leggi fisiche quali il caos o il “principio antropico” (basato sulla possibilità – di nuovo senza entrare in dettagli – che tra la presenza dell’uomo nell’universo e il ciclo evolutivo dell’universo stesso vi sia un particolare legame di natura a-causale), è necessario ricorrere a un principio abbastanza vicino al concetto Junghiano di sincronicità.
Qualcuno potrebbe obbiettare che la sincronicità è solo una delle molte teorie della psi. In realtà è facile evidenziare che quasi tutte le teorie parapsicologiche escogitate in tempi lontani e recenti, con quegli strani nomi esotici che abiamo sentito – L'”io subliminale” di Meyers e Tyrrel, il “sistema cosmico di leggi psichiche” di Murphy Gardner, la “shin” di Thoules e Wiesner, e ancora quella del “serbatorio cosmico” di William James, del “livello psi” dell’inconscio di Ehrenwald, le teorie “osservazionali” di Walker e Schmidt, tanto per citarne alcune – ruotano sostanzialmente attorno agli stessi concetti di base della sincronicità: extra-causalità, indipendenza dallo spazio e dal tempo, funzione attiva di unità o strutture simboliche più o meno inconsce. Torniamo ora alla dimostrazione di Ghirardi, Rimini, Weber che comporta la scomoda – per noi – proprietà di vietare nel modo più assoluto l’utilizzo di processi non-locali per trasmettere un qualunque messaggio e ripetiamo la domanda: quale beffarda convergenza di indizi fa sì che un fenomeno, che avrebbe tutti i connotati per fornire un’indiscussa base teorica alla psi, riveli poi un limite indiscutibile per tale impiego?
L’equivoco sta tutto, ritengo, nella parola “messaggio”. Riflettiamo con attenzione su che cosa intendiamo normalmente con tale termine: una sequenza di segni codificati che viene trasmessa, attraverso un canale, da un emittente a un destinatario il quale, per parte sua, compie l’operazione di decodifica. Qualunque sia la modalità del processo, quella dell’ alfabeto Morse, o la voce umana, o i gesti di uno sbandieratore, la logica che lo rende efficiente è sempre la stessa. Si tratta di un fenomeno che richiede una spesa energetica (per quanto minima) e che si attua secondo una modalità intrinsecamente causale. C’è anche un limite relativistico che lo condiziona: deve propagarsi sempre a velocità non superiore a quella della luce. A questo punto è doverosa la domanda: è così che avviene, se esiste, la comunicazione extrasensoriale? La risposta apparirà, a questo punto, abbastanza scontata: assolutamente no. La psi non implica, come abbiamo visto poc’anzi, alcuna forma di codifica-decodifica del messaggio, non implica alcuna causalità, non implica alcuna spesa energetica, non implica alcun limite di propagazione fisica. Si è ricorso a varie formule e definizioni per giustificare questo strano tipo di contatto comunicativo, alcune orientate più in senso psicologico, altre più in senso spiritualista. Si è parlato di “simpatia”, di “co-sensibilità” (G. Murray), di “gravitazione universale tra le anime” (Myers), di “coniugazione psichica”, di “mimetismo mentale” (Talamonti) (si pensi al concetto quantistico di Shimony della “passione a distanza”). Forse una delle più felici definizioni della facoltà (che compendia questo suo agire fondamentalmente a-causale) è quella di Harry Price, secondo il quale la telepatia “è più simile a un contagio che a una conoscenza” . Curiosamente il concetto di “contagio”, di reciproca “simpatia” tra le cose, sta alla base di tutto il simbolismo della magia, come osserva lo stesso Selleri avvalendosi della notazione di un celebre antropologo, J. Frazer . La presenza di una logica compartecipatoria simile a quella presente nella non-località è evidente. Si deduce da tali osservazioni che la psi non manifesta alcuna attinenza con il limite imposto dalla teoria di Ghirardi, Rimini, Weber, oggetto del cui divieto appare invece proprio la modalità tradizionale del processo di trasmissione dell’informazione che comporta sempre, in ultima analisi, l’azione su un qualche sistema fisico (si tratti della scarica di un neurone o dell’attivazione di un micro-chip). La non-località, nota Ghirardi, è in effetti tale “da non consentire una sua utilizzazione per produrre effetti istantanei a distanza tra sistemi fisici” . Occorre purtroppo riconoscere che non è facile concepire una forma di percezione o conoscenza che non comporti alcun tipo tradizionale di trasmissione di informazione quale richiede la psi. Per darne una inquadramento organico occorrerebbe esaminare altri elementi concettuali derivati dalla non-località quali la teoria quantistica della mente, l’eventuale fattore soggettivo implicato – secondo alcune teorie – nei processi quantistici come processi operanti a livello delle funzioni cerebrali (in sintesi, quale aiuto possono offrire per capire quel fenomeno sfuggente e ineffabile che è la coscienza). In via molto schematica potremmo affermare che proprio il modello dell’entanglement, della strana comunione di stati (se solo fisici, o anche psichici è il problema da risolvere) implicato nel paradosso E.P.R. offre per la psi un modello interpretativo interessante. Molto probabilmente è in gioco nella comunicazione paranormale il contrasto tra le due categorie operative del comunicare e dell’essere. Un soggetto che ha una qualche percezione extrasensoriale di qualcosa che è nella mente di un altro individuo, verosimilmente non riceve né trasmette niente. C’è una parte della sua personalità che letteralmente viene ad essere qualcosa dell’altro individuo, che instaura con lui una qualche perfetta unione di stati psichici. Ricapitolando dunque gli elementi di apporto della quantistica alla tesi della psi, se accettiamo l’interpretazione ufficiale ortodossa possiamo avvalerci dei concetti di base della scuola di Copenhagen-Goettingen la cui visione “mentalista”, abbiamo visto, offre ampi sostegni all’esistenza della facoltà. Se accettiamo la tesi alternativa, di cui fu capostipite Einstein, finiamo col dover fare i conti con la visione unitaria del cosmo proposta da Bohm, o in ogni caso, con l’onnipresenza degli effetti non-locali che di nuovo concedono ampi spazi teorici alla facoltà paranormale.
Naturalmente non possiamo assumere sic et simpliciter la tesi della non-località come una prova indiscussa della psi. Quello che possiamo rivendicare, nella relazione generale con teoria della meccanica quantistica, è nondimeno l’insensatezza di un luogo comune cui indulgono i critici più radicali: l’inconciliabilità tra i fenomeni paranormali e i concetti della scienza in generale. In realtà i legami, abbiamo visto, esistono e hanno una loro coerenza, una loro ragionevolezza. Se la non-località non può essere considerata una prova assoluta della psi, certamente è una prova della sensatezza dell’ipotesi, del fatto che la psi è un argomento suscettibile di una costruttiva attività di ricerca.
Mente,causalità e psicocinesi
“L’inquietudine che tiene in moto perenne l’orologio della metafisica,è il pensiero che la non esistenza del mondo sia possibile quanto la sua esistenza”.
William James
Tutti noi sappiamo bene che non basta il pensiero per accendere il fornello sotto la caffettiera, o per portare fuori la spazzatura; dobbiamo muovere i muscoli e svolgere fisicamente il nostro compito.Eppure ciascuno di noi ha provato, in qualche momento della propria vita, ad influenzare il comportamento delle persone o delle cose mediante la sola forza del pensiero. Forse che nessuno ha mai lanciato dei dadi, “desiderando” l’uscita di un certo numero? Forse che nessuno ha mai osservato intensamente una persona di spalle, cercando di farla voltare? Questi sono dei comportamenti abbastanza naturali, dato che nel corso della crescita dobbiamo imparare a conoscere i limiti delle nostre capacita’, e dobbiamo apprendere i concetti che riguardano la causalita’.I bambini non nascono con la comprensione dei rapporti di causa-effetto. Il pensiero naturale e’ quello MAGICO. Il pensiero magico consiste nella percezione di una relazione causale tra due eventi, senza pero’ capire i legami causali fra questi stessi eventi. Esprimete un desiderio sotto una stella cadente, ed il vostro desiderio si avverera’. Incrociate le dita affinche’ la sorte vi sia propizia. Pregate per ottenere aiuto.I bambini sono apertamente “magici”. Come ha detto il grande psicologo svizzero Jean Piaget, un bambino che vede la luna, prima dalla finestra della sua cameretta e poi dalla finestra della camera dei suoi genitori, pensera’ che la luna lo stia seguendo. Questa deduzione non e’ poi cosi’ ingiustificata se uno non sa nulla di astronomia, o circa la natura della luna, o della tendenza degli oggetti naturali a non piegarsi alla nostra volonta’.Come facciamo a sapere che cosa causa che cosa? Se vi trovate in una sala riunioni e osservate qualcuno di spalle, e costui si gira e vi guarda in viso, sara’ stato forse il vostro sguardo a farlo voltare? Molta gente pensa che sia cosi’, perche’ cio’ e’ quanto l’esperienza dice loro. Una tale semplice convinzione, supportata da successi occasionali dovuti a coincidenze, oppure al fatto che una persona, mentre viene guardata intensamente, si e’ voltata per vedere come mai nella sala e’ calato il silenzio, e’ sufficiente per convincere diversa gente che i poteri psichici esistono. Per ragioni analoghe, una buona dose di pensiero “magico” e’ presente, sotto forma di rituali superstiziosi, all’interno delle sale da gioco o dei campi sportivi.
Cosa possiamo dire di tutti quei casi in cui fissate lo sguardo su di una persona, ma questa non si volta affatto, oppure desiderate fare dodici ai dadi ma il risultato del lancio e’ diverso? Siete proprio sicuri che, se NON vi e’ alcuna forma di controllo mentale in gioco, sperimenterete una tale quantita’ di fallimenti, per cui un successo occasionale non vi impressionera’ piu’ di tanto?E’ qui il nocciolo del problema. Il nostro sistema nervoso non e’ predisposto per svolgere accurate analisi di covarianza fra due variabili, ma per aiutarci a sopravvivere. Esso e’ strutturato affinche’ un’importante o evidente coincidenza fra due eventi (fisso la tua nuca e tu ti volti; desidero un doppio sei ai dadi e lo ottengo) lasci una forte impressione, mentre le non coincidenze fra le stesse due variabili siano largamente ignorate. Scottatevi la mano su di un fornello, ed il vostro cervello imparera’ che i fornelli sono pericolosi. Toccate poi il fornello piu’ volte senza scottarvi, ma il timore non svanira’ del tutto. L’asimmetria di questi effetti e’ importante per la sopravvivenza. Un animale che venisse aggredito da una volpe, e successivamente venisse lasciato in pace da un’altra volpe, non vivrebbe a lungo se la lezione tratta dalla prima esperienza venisse poi cancellata dalla seconda.Dunque vi e’ un’asimmetria nel modo in cui gli eventi influenzano il nostro sistema nervoso. Pochi episodi – a volte uno solo – di corrispondenza fra due avvenimenti sono sufficienti per controbilanciare un insieme molto numeroso di mancate corrispondenze, almeno per quanto riguarda la sensazione che un evento sia causa dell’altro. Certamente, coloro che credono che il fissare intensamente una persona alle spalle abbia un qualche effetto, sono anche convinti che questo non sempre si verifichi. Per questo motivo la loro credenza e’ molto resistente alle smentite. La scienza e’ essenzialmente un mezzo per cercare di fare in modo piu’ accurato cio’ che tutti noi tentiamo di fare nella vita quotidiana: capire che cosa causa che cosa. Solo la scienza cerca sistematicamente di eliminare spiegazioni alternative circa gli eventi concomitanti.
Voi guardate, e qualcuno si volta. Lo scienziato vuole stabilire se il fatto di voltarsi abbia qualche legame con lo sguardo e, se cosi’, in quale modo i due eventi siano fra loro connessi. Potrebbe forse trattarsi di una semplice coincidenza? Dopo tutto, ci sara’ capitato spesso di stare seduti dietro ad altre persone, aspettandoci di vedere ogni tanto qualcuno girarsi per motivi suoi. O non sara’ piuttosto che l’osservatore e’ improvvisamente rimasto zitto ed immobile, e che questo repentino silenzio ha indotto l’altra persona a voltarsi per vedere che cosa e’ successo?
La psicocinesi si riferisce al movimento (la cinesi) di oggetti dovuto all’influenza della mente (la psiche). Sia che si consideri o meno come psicocinesi il fatto di osservare la nuca di qualcuno e di farlo voltare, il successo nell’influenzare il lancio dei dadi verrebbe sicuramente attribuito alla psicocinesi stessa.Alla fine del secolo scorso, le indagini circa la possibilita’ della psicocinesi non erano poi una cosa tanto inconsueta. Dopo tutto, quelli erano tempi di grandi scoperte: immaginate lo stupore per essere in qualche modo capaci di inviare suoni attraverso l’etere o dei fili, o per la possibilita’ di rivelare delle emanazioni provenienti da certi pezzi di roccia, o per essere in grado di osservare l’interno di un corpo umano tramite una radiazione invisibile.Aggiungete a tutto questo il fatto che c’erano in giro molte persone, presumibilmente dotate, le quali affermavano di essere in grado di muovere degli oggetti dentro una stanza, se non con il loro potere mentale, almeno tramite l’intervento di una qualche entita’ immateriale.Ne consegui’ che, all’inizio di questo secolo, sia in Europa che negli USA, eminenti psicologi presero in seria considerazione la psicocinesi, insieme ad una sua cugina, la percezione extrasensoriale. La mancanza di prove relative ai fenomeni studiati indusse poi la maggior parte di loro ad abbandonare le ricerche in questo settore.La ricerca nel campo della psicocinesi puo’ essere divisa in tre fasi (Stanford, 1977).
– Dal 1934 al 1950, la scena era dominata da Joseph Banks Rhine, ed il principale banco di prova sperimentale era costituito dal lancio dei dadi. Tuttavia, come evidenziato da Stanford, queste sperimentazioni non venivano controllate con l’accuratezza che sarebbe stata necessaria. Malgrado il fatto che Rhine avesse alla fine optato per un lanciatore meccanico, molti studi vennero svolti lanciando i dadi a mano. Per giunta, i dadi stessi contengono un grosso artefatto: le facce con i numeri piu’ alti sono le piu’ leggere, per via delle concavita’ dei puntini, e quindi sono anche quelle che hanno maggiori probabilita’ di emergere. Questo problema veniva generalmente trascurato. Attualmente, a causa degli errori empirici, i parapsicologi non danno piu’ molta importanza ai primi studi effettuati con i dadi, anche se vi e’ un recente rinnovato interesse.
– Attorno alla meta’ degli anni quaranta, si scopri’ l’effetto del “declino del quartile”: ci si accorse che, se si esaminavano i risultati di una sessione sperimentale, la quantita’ di successi era solitamente maggiore nel primo quarto della sessione che non durante l’ultimo, e questo fatto venne considerato come una proprieta’ della psicocinesi. Le ricerche e le analisi vennero dirette sempre piu’ verso questo ed altri effetti “interni”, interpretati come segni della realta’ della psicocinesi stessa.
– Dal 1951 al 1969, in cio’ che Stanford chiamo’ il “periodo di mezzo”, il metodo dei dadi cadde in relativo disuso, e l’enfasi venne posta sul metodo dello “spostamento”.Lo scopo consisteva nell’influenzare un dado od una pallina, in modo da farli muovere in una certa direzione mentre rotolavano lungo un piano inclinato. Tuttavia, come nel caso del lancio dei dadi, neppure qui emersero dei dati convincenti.
Nella terza fase di Stanford, l’uso di generatori elettronici di eventi casuali forni’ cio’ che i parapsicologi sperarono essere un elemento decisivo: d’ora in poi sarebbe stato possibile studiare l’influenza della mente su eventi davvero casuali, mediante l’uso di apparati automatici, del tutto obiettivi. Beloff ed Evans (1961) furono i primi a cercare gli effetti della psicocinesi sul fenomeno del decadimento radioattivo, ma non ebbero alcun successo. Helmut Schmidt fu il pioniere degli studi di psicocinesi condotti con l’aiuto di generatori di eventi casuali.Un tipico esempio di apparecchio e di paradigma di Schmidt richiede quattro lampade connesse ad un circuito elettronico. Il circuito aziona in sequenza ciclica quattro interruttori, uno per ogni lampada. Quando un annesso contatore geiger rivela l’emissione di una particella da una sorgente radioattiva, il circuito si ferma, qualunque sia l’interruttore attivato in quel momento, e mantiene quindi stabilmente accesa una lampada. Lo scopo del soggetto e’ di indurre una particolare lampada a rimanere accesa il piu’ frequentemente possibile. Naturalmente, l’unico modo per sapere se il soggetto ha avuto successo consiste nel paragonare la frequenza delle accensioni della lampada prescelta con quanto ci si puo’ attendere dal caso.Con questo ed altri paradigmi simili, Schmidt sostenne di aver trovato prove convincenti a sostegno della psicocinesi. Fu lui a dimostrare successivamente che un gatto in un locale freddo poteva mantenere accesa una lampada, azionata casualmente, per un tempo totale maggiore di quanto consentito dal caso, e che degli scarafaggi subivano una quantita’ di scariche elettriche maggiore di quanto ci si potesse aspettare (forse a causa dei poteri psicocinetici dello stesso Schmidt e della sua ripugnanza per gli scarafaggi), e che le uova fecondate potevano mantenere accesa una lampada riscaldante per un tempo maggiore del previsto.Il lavoro di Schmidt si fece ancora piu’ notevole, poiche’ giunse apparentemente a dimostrare che la psicocinesi poteva estendere i propri effetti nel tempo, sia nel passato che nel futuro. Per esempio, Schmidt (1976) uso’ un generatore casuale binario per produrre una serie di scelte casuali, le quali venivano tradotte in suoni impulsivi inviati agli auricolari di una cuffia stereofonica. La sequenza di suoni venne registrata su nastro magnetico in duplice copia, e uno dei due nastri venne messo al sicuro per i futuri controlli. L’altro nastro venne poi fatto ascoltare ad un soggetto, il cui compito era quello di indurre un aumento della frequenza degli impulsi che giungevano all’orecchio destro. Successivamente, Schmidt conto’ il numero di impulsi che si erano verificati nel canale destro, e trovo’ un evidente aumento statistico nella direzione voluta. Ma la cosa piu’ importante, come da lui detto, fu che quando egli stesso paragono’ la sequenza di impulsi del nastro sperimentale a quella registrata nella copia che era stata messa da parte, scopri’ che erano identiche! Concluse quindi dicendo che il soggetto aveva influenzato ambedue i nastri, presumibilmente mediante il collasso di una funzione d’onda quantistica nel momento dell’osservazione (influenzando percio’ in maniera identica i due nastri, tramite una qualche stravaganza della meccanica quantistica), oppure andando a ritroso nel tempo per alterare le serie nel momento in cui venivano generate.Lo scettico sarebbe rimasto molto piu’ impressionato, se nel nastro ascoltato dal soggetto fossero state invece trovate delle differenze rispetto al contenuto del nastro di controllo!
Il margine di successo che Schmidt otteneva nei suoi lavori e’ molto piccolo, anche se statisticamente significativo. Il valore medio dei successi nella sua ricerca era solo di poco superiore a quanto ci si puo’ aspettare dal c1;0caso (per esempio: 50.53%, rispetto ad una probabilita’ puramente casuale del 50.00%. (Palmer,1985)).
Robert Jahn e’ l’ex preside della facolta’ di ingegneria all’ Universita’ di Princeton, dove continua ad insegnare ed a svolgere attivita’ di ricerca. Egli si e’ convinto dell’esistenza della psicocinesi in base delle proprie ricerche, e accetta il fatto che essa possa trascendere non solo lo spazio, ma anche il tempo. Come Schmidt, anche lui cerca di interpretare le sue scoperte secondo i termini della meccanica quantistica. Grazie alla sua posizione di prestigio e alla sua reputazione, i suoi lavori e le sue conclusioni hanno sollevato molto piu’ interesse di quelle di Schmidt, almeno al di fuori del settore della parapsicologia.Jahn ha concentrato le sue ricerche in tre aree: (1) studi di psicocinesi in cui i soggetti tentano di influenzare l’uscita di un generatore di eventi casuali; (2) studi di macro-psicocinesi in cui i soggetti cercano di influenzare la caduta di palline in una macchina statistica dimostrativa, e (3) studi sulla visione a distanza.Nei suoi studi con i generatori di numeri casuali, Jahn ha accumulato milioni di prove con un sistema automatizzato in cui i soggetti cercano di influire su di un processo casuale o pseudocasuale. In uno lavoro tipico, un generatore casuale binario viene predisposto per emettere una serie di 200 bit dopo che un tasto e’ stato premuto. Questi 200 bit rappresentano una singola prova. Il soggetto osserva un display numerico il quale registra il numero totale di “uni” o di “zeri” contenuti nella serie.L’esperimento si svolge secondo un protocollo tripolare, nel senso che al soggetto viene chiesto di produrre un punteggio maggiore di 100, uno minore di 100, oppure, durante le prove di controllo, di non fare assolutamente nulla. Un singolo esperimento consiste in 50 prove in cui il soggetto deve “mirare” in alto, 50 prove in cui deve “mirare” in basso, e 50 prove di controllo. Una serie completa consiste in 50 di questi esperimenti.Jahn ha raccolto tutti i dati ottenuti nel corso di diversi anni, durante i quali le sue apparecchiature avevano anche subito alcune modifiche. A dispetto dell’elevata significativita’ statistica che Jahn attribuisce ai suoi risultati, Palmer (1985) calcolo’ il valore medio dei successi per tutta la mole di dati, e scopri’ che si trattava solo del 50,02%, contro un’aspettativa teorica del 50,00%. Comunque, per via dei milioni di prove effettuate, anche un minimo scostamento come questo assume un valore statistico molto significativo.
Esistono pero’ diversi problemi nelle ricerche che Jahn ha eseguito con i generatori di numeri casuali:
(1) Per cominciare, la maggior parte della significativita’ dei dati proveniva dai risultati ottenuti da un solo soggetto, che era poi la stessa persona che collabora con lui e gestisce il suo laboratorio. Jahn ha in seguito fornito altri dati i quali, secondo lui, indicano che gli effetti non sono limitati a quell’unico soggetto.
(2) Come evidenziato da Palmer (1985), Jahn non ha fornito alcuna documentazione circa i provvedimenti adottati per evitare che i risultati venissero manomessi dai soggetti. Il soggetto viene solitamente lasciato da solo con l’apparecchuatura durante lo svolgimento degli esperimenti.
(3) Le prove di controllo sono spesso eseguite separatamente dalle prove sperimentali, e questo e’ un fatto assai rilevante, poiche’ il paragone tra i due tipi di prove e’ alla base del processo di inferenza.
(4) La distinzione fra studi formali e studi esplorativi non e’ chiara. E’ possibile che delle prove esplorative siano state qualche volta considerate a posteriori come delle prove formali, specialmente se i loro risultati sembravano positivi?
(5) Jahn esegue ripetute prove statistiche “post hoc” sui suoi dati, e percio’ i livelli di significativita’ da lui asseriti, che sono interpretati come se si riferissero ad una singola prova, risultano gonfiati in una misura imprecisata.
In conclusione, cio’ che Jahn deve fare adesso e’ condurre un esperimento: egli deve specificare in anticipo il protocollo sperimentale, completo delle previsioni che devono essere verificate, il numero dei soggetti, il numero delle prove, ecc. Finche’ non fara’ cosi’, egli avra’ raccolto soltanto una grandissima collezione di dati pilota.Nei suoi studi con la cascata meccanica casuale, Jahn usa un dispositivo statistico dimostrativo, il quale consente la caduta di 9000 palline di polistirolo attraverso una matrice di 330 pioli, che le smista in 19 diversi contenitori secondo una distribuzione della popolazione che e’ approssimativamente Gaussiana (Dunne, Nelson e Jahn, 1988). Gli operatori tentano di spostare la popolazione verso destra o verso sinistra. Al tempo di quella pubblicazione del 1988, quattro dei venticinque operatori coinvolti nelle ricerche avevano “ottenuto separazioni anomale, nei loro sforzi sia verso destra che verso sinistra”, e altri due avevano ottenuto separazioni significative verso destra o verso sinistra dalla linea di base. Di nuovo, cio’ che qui serve e’ un esperimento delineato con chiarezza, con tutti i dettagli, inclusi i confronti statistici necessari, da specificare in anticipo.Per quanto concerne gli studi di Jahn sulla visione a distanza, anche se essi non coinvolgono la psicocinesi, vale comunque la pena di riferire che essi sono stati recentemente esaminati in dettaglio da un gruppo di parapsicologi (Hansen, Utts e Marwick, 1991), i quali hanno concluso che:
“Gli esperimenti del PEAR [Princeton Engineering Anomalies Research] di visione a distanza, si discostano da quelli che sono i criteri comunemente accettati della ricerca formale nell’ambito scientifico. Infatti, essi sono indubbiamente fra i peggiori esperimenti di percezione extrasensoriale mai pubblicati in molti anni. Le carenze forniscono spiegazioni alternative plausibili. Non sembra esserci alcun metodo statistico disponibile per la valutazione di questi esperimenti, a causa del modo in cui essi sono stati condotti.” (p. 198)
Mentre non possiamo concludere direttamente che la medesima trasandatezza sperimentale abbia caratterizzato il suo lavoro sulla psicocinesi, questa valutazione negativa da parte degli stessi parapsicologi non depone comunque molto a favore della qualita’ degli sforzi sperimentali nel laboratorio di Jahn. Dopo tutto, e’ lo stesso Jahn che traccia un parallelo tra i risultati ottenuti nei suoi studi sui generatori di numeri casuali, la cascata meccanica, e la visione a distanza:
“Quattro esperimenti tecnicamente e concettualmente distinti – un generatore binario casuale pilotato da una sorgente elettronica di rumore a diodo; un generatore pseudocasuale deterministico; una cascata meccanica su larga scala; un protocollo digitalizzato di percezione a distanza – mostrano degli andamenti sorprendentemente simili nello scostamento dei conteggi dalle rispettive distribuzioni casuali. …In ciascun caso, il risultato equivale ad una semplice trasposizione marginale dell’appropriata distribuzione statistica Gaussiana verso un nuovo valore medio… o, in modo equivalente, ad un cambiamento della probabilita’ fondamentale del processo binario di base [p]…” (Jahn, York e Dunne, 1991, Abstract).
La meta-analisi e’ uno strumento per la revisione dei lavori pubblicati. Essa fornisce una procedura statistica per esaminare studi sperimentali correlati, e farsi un’idea di quanto essi supportino collettivamente una particolare ipotesi.La meta-analisi e’ diventata molto popolare nella parapsicologia contemporanea. Viene usata per dimostrare che c’e’ una chiara indicazione, proveniente non solo da studi individuali che potrebbero essere affetti da errori, bensì da un’ampia collezione di ricerche, che le anomalie statistiche, sempre implicitamente o esplicitamente interpretate come il risultato di influenze psichiche, esistono.Ricorderete che in precedenza avevo detto che gli studi con i dadi erano caduti in disuso nelle ricerche di parapsicologia. Tuttavia, Radin (1991) ha presentato una meta-analisi relativa a 73 rapporti pubblicati tra il 1935 ed il 1987, per un totale di 148 studi e più di due milioni di lanci di dadi, in cui erano coinvolti 52 investigatori e oltre 2500 soggetti. Egli scoprì che c’era effettivamente la presenza di un artefatto quando l’obiettivo era la faccia con un numero alto, come il sei. Ma quando si mise ad analizzare un sottoinsieme di 59 studi intesi a verificare proprio questo artefatto, trovò le prove di “un effetto indipendentemente replicabile, significativamente positivo”, e non spiegabile in termini di resoconti parziali o di differenze nella qualità metodologica.
Radin e Nelson (1991) hanno condotto una meta-analisi di “tutti gli esperimenti conosciuti che studiano le possibili interazioni tra lo stato di coscienza ed il comportamento statistico dei generatori di numeri casuali”, prendendo in esame 597 studi sperimentali e 235 studi di controllo pubblicati tra il 1959 ed il 1987. (Questi provenivano da 152 differenti relazioni – uno studio definito come la piu’ grande possibile aggregazione di dati non sovrapposti e raccolti con un unico scopo ben preciso). Gli autori hanno concluso che gli studi di controllo si conformano bene alle aspettative di casualita’, mentre gli effetti sperimentali deviano significativamente da queste aspettative:
“L’entita’ dell’effetto complessivo ottenuto in condizioni sperimentali non puo’ essere adeguatamente spiegata con carenze metodologiche o parzialita’ nei resoconti. Percio’, dopo aver considerato tutte le testimonianze ottenibili, pubblicate e non, mitigate da tutte le legittime critiche emerse fino ad oggi, e’ difficile evitare la conclusione che, in determinate circostanze, la mente interagisce con sistemi fisici casuali. (Resta ancora da vedere se questo effetto sara’ alla fine attribuito ad un qualche artefatto metodologico sin qui trascurato, o ad un nuovo tipo di perturbazione bioelettrica di sensibili dispositivi elettronici, o se verra’ considerato come un contributo empirico alla filosofia della mente.)” (p. 1152).
Che cosa ci rimane? Si direbbe che se usiamo generatori sia di eventi propriamente casuali oppure pseudocasuali deterministici, e sia che cerchiamo effetti in tempo reale o dispersi a ritroso o in avanti nel tempo, e sia che lavoriamo con eventi di microlivello o di macrolivello come nella cascata casuale di Jahn, l’entita’ degli effetti sara’ virtualmente la stessa (Jahn, York e Dunne, 1991). A detta di Schmidt (1988), sia gli esperimenti con diversi tipi di flipper a monete e sia quelli con i dadi forniscono effetti psicocinetici dello stesso ordine di grandezza, e nessuno e’ mai stato capace di realizzare un generatore casuale apprezzabilmente piu’ sensibile di altri.Per giunta, Stanford (1977), passando in rivista la psicocinesi, concluse che il successo in questo campo non dipende dalla conoscenza dell’obiettivo, dalla natura o dall’esistenza del generatore di eventi casuali, dalla complessita’ o dal progetto del generatore di numeri casuali, e neppure dal fatto che ci si stia cimentando in uno studio di psicocinesi. Egli concluse dicendo che, in qualche modo, il fenomeno psicocinetico si manifesta senza che vi sia una qualche forma di elaborazione da parte dell’organismo, ed avviene in modo tale da raggiungere lo scopo senza nessuna mediazione sensoriale. Chiaramente, tutto questo ricorda molto da vicino la cosiddetta magia naturale: esprimi un desiderio ed esso si avverera’. Le nostre convinzioni aprioristiche sono la chiave per determinare se siamo disposti ad assegnare alla psicocinesi il ruolo di agente causale delle deviazioni statistiche. Jefferys (1990) ha criticato l’applicazione dell’analisi statistica classica agli studi eseguiti con generatori di numeri casuali, in quanto essa non sarebbe adatta a questo tipo di dati e porterebbe ad una grossolana sopravvalutazione della significativita’ dei risultati. In effetti, egli afferma che l’analisi Bayesiana, la quale prevede la presenza di convinzioni aprioristiche, mostra che piccoli valori di “p” possono non essere sufficienti a provare l’esistenza di un fenomeno anomalo. Jefferys illustra questo punto utilizzando una parte dei dati raccolti da Jahn. A seconda delle ipotesi formulate a priori, l’analisi Bayesiana dei dati di Jahn potrebbe addirittura indurre ad essere piuttosto scettici.In conclusione, cio’ che Jahn ed altri devono fare e’ innanzitutto un esperimento ben concepito, con previsioni chiare, con dichiarazioni specifiche circa quanto verra’ sottoposto ad esame ed al numero delle prove, ecc. Poi, se emergono dei risultati, occorre replicare in modo indipendente gli esperimenti. Successivamente bisogna cercare di capire che cosa produce gli scostamenti dalla pura casualita’, invece di etichettarli subito come fenomeni psicocinetici, e poi concretizzare il concetto di psicocinesi in modo da spiegare quegli scostamenti.Nel frattempo, a causa di carenze metodologiche, di previsioni malamente definite, e dell’incapacita’ di replicare gli esperimenti da parte di altri studiosi, non ci sono, secondo me, dati anomali da spiegare. E se anche vi fossero, essi potrebbero puntare altrettanto bene nella direzione dell’esistenza del dio Giove quanto in quella della psicocinesi.
Negli ultimi anni un numero crescente di ricerche ha dimostrato l’esistenza della retrocausalità: situazioni nelle quali le cause sono collocate nel futuro e l’informazione si muove a ritroso nel tempo. In questo lavoro si suggerisce di inserire queste informazioni nei processi decisionali al fine di governare in modo più efficace ed efficiente il presente. Le dimostrazioni più famose di retrocausalità sono state prodotte da:
• PEAR (Princeton Engineering Anomalies Research) che, studiando l’interazione mente/macchina, ha dimostrato la possibilità di modificare l’andamento di generatori di numeri causali con la semplice intenzionalità (Jahn e Dunne 2005). In questi esperimenti
l’interazione anomala mente-macchina risulta essere più marcata nella modalità retrocausale PRP (Precognitive Remote Perception), raggiungendo una significatività (rischio di errore) di p=0,000002 (Nelson 1988).
•Cognitive ScienceLaboratori che, studiando stimoli fortemente emotivi, ha scoperto l’esistenza di una riposta cutanea anticipata di 3 secondi (James 2003), con significatività statistica (rischio di errore) di p=0,00054.
• Radin e Bierman (1997) i quali dimostrano che la risposta anticipata del sistema nervoso autonomo e la conduzione cutanea possono essere utilizzati come predittori di esperienze future.
• Parkhomtchouck (2002) che utilizza la fMRI (functional magnetic resonance imaging) per studiare la retrocausalità.
Tutte queste ricerche hanno mostrato che le emozioni costituiscono il veicolo principe della retrocausalità e delle informazioni che provengono dal futuro. Alle stesse conclusioni era giunto Luigi Fantappiè quando, nel 1942, trovò il collegamento tra soluzione negativa dell’equazione di Dirac, sintropia ed emozioni (Fantappiè 1993).Chris King (1989) lega la retrocausalità al libero arbitrio e afferma che in ogni momento la vita deve scegliere tra le informazioni che provengono dal passato e le informazioni che provengono dal futuro. Secondo King, da questa attività costante di scelta, da questo indeterminismo di base, nasce l’apprendimento e la coscienza. King sottolinea che la coscienza soggettiva è una necessaria conseguenza della supercausalità che nasce dall’unione della casualità ordinaria con la retrocausalità. (King 2003).
“Parecchi indizi rilevati nei nostri studi sulle anomalie fisiche dipendenti dalla coscienza suggeriscono che i meccanismi che sottendono la loro espressione sono associati a processi biologici inconsci più che a quelli cognitivi. Essi includono la mancanza di evidenza a favore di un apprendimento da ripetute esperienze; la diffusa presenza di effetti di posizione seriale chiaramente associati alla dimensione soggettiva inconscia; le differenze di genere; la suscettibilità alla distorsione da comportamenti casuali in esperimenti privi di intenzione; i frequenti resoconti dei partecipanti sulla loro maggiore capacità di ottenere risultati quando non tentano coscientemente di ottenere buoni risultati; gli apparenti effetti di risonanza interpersonale; e i risultati ottenuti con animali.” Brenda Dunne (PEAR’s Manager)