.
Annunci online

houseofMaedhros
schizzi e scazzi di finanza e dintorni


Filosofando


3 dicembre 2009

UNA COSMOLOGIA PER IL XXI SECOLO


Il Giornale OnlineDI MICHAEL GOODSPEED
Thunderbolts

"Una nuova verità scientifica non trionfa perché i suoi oppositori si convincono e vedono la luce, quanto piuttosto perché alla fine muoiono, e nasce una nuova generazione a cui i nuovi concetti diventano familiari!" -- Max Planck, fisico teorico tedesco

"La credibilità è valuta". Un giorno mi è schioccata nella mente questa frase, e ritendendomi una persona piuttosto intelligente, me la sono attribuita, nella speranza di averla inventata io stesso. Ma ho poi scoperto che non era mia. Un autore il cui nome non riesco a ricordare ha scritto, "la credibilità è valuta: difficile da ottenere, e ancora più facile da perdere".

Questa dichiarazione può essere applicata virtualmente a qualunque attività umana, e probabilmente a nessuna calza meglio delle scienze teoriche – un tentativo inerentemente idealista per fare avanzare la comprensione umana. Uno scienziato "credibile" può avere l'orecchio del mondo intero, e nulla esprime meglio la sua "credibilità" di queste tre lettere – PhD [Dottorato di Ricerca, ndt].


Il lavoro degli scienziati ha un enorme impatto nella vita di tutti i giorni. Non dipendiamo dagli scienziati solamente affinchè ci aiutino a comprendere il mondo naturale. Dipendiamo dai loro punti di vista per guidarci in importanti decisioni personali, comprese quelle che hanno a che fare con la salute e il nostro stile di vita [ricordate il fervore di breve durata nei confronti della Dieta di Atkins?]. Il rispettabile scienziato con gli occhiali, che i mass media definiscono un “esperto” ha il potere di cambiare la maniera in cui pensiamo, e quindi di cambiare il mondo.

Ma la credibilità può essere paragonata ad un arazzo dai contorni molto complessi. Oltre ai quei requisiti tangibili che uno scienziato “credibile” deve possedere, ci sono quelle qualità intangibili quali l'onestà, l'integrità, e l'apertura mentale verso nuove possibilità. Ad un livello individuale, la maggior parte degli scienziati accreditati può per la verità possedere queste qualità. Ma non si può giudicare la validità di un'opinione scientifica solamente sulla base di quanto “accreditato” sia un individuo.

Ho il sospetto che la maggior parte delle persone non trovi molte ragioni per mettere in discussione l'establishment scientifico. La maggior parte di noi ritiene che l'esperto sappia ciò di cui sta parlando e che non abbia alcun motivo per volerci ingannare. Ma coloro che sono stati rimossi dal vertice di comando della scienza sanno che al di sotto del nobile manto esterno di molte istituzioni sono numerose le tendenze che spingono verso la manovra politica e la manipolazione, spesso con conseguenze altamente distruttive.

Questa situazione non dovrebbe sorprenderci più di tanto. Il denaro, la reputazione, il campo di visuale limitato, e il momentum di precedenti credenze [ossia la capacità di mantenere inalterata la propria influenza nel pensiero contemporaneo, ndt] hanno sempre avuto il potere di corrompere la libera ricerca e di dissuadere in maniera sottile gli individui dal mettere in discussione quelle idee che si sono andate istituzionalizzando.




Ma il problema più acuto di oggi è un qualcosa di unico dei secoli ventesimo e ventunesimo, ed è legato inseparabilmente alla creazione di un sistema centralizzato di fondi che vengono distribuiti alle ricerche scientifiche. Ci sono coloro che credono la scienza non si stia solamente sbagliando riguardo ad alcune interessanti possibilità teoriche, ma che si sbagli IRRIMEDIABILMENTE sulle domande più importanti e fondamentali che la scienza possa porsi.

Ma a chi dovremmo dare ascolto per risolvere tutto questo? Se i critici hanno ragione, questo significa che miliardi di dollari di tasse sono stati mal diretti e/o sono andati completamente sprecati al solo scopo di inseguire chimere. La vostra risposta a tutto questo potrebbe essere, "Va bene... ma chi sei tu per fare simili affermazioni?". Posso rispondere dicendo che non sono un professionista ma che ho seguito con particolare interesse le scoperte che sono state fatte grazie al lavoro di quei ricercatori indipendenti che sono scettici riguardo all'attuale consenso scientifico.

Ma va sottolineato che la parola "scettico" è stata degradata e male utilizzata nel corso degli anni fino al punto che alcuni la interpretano come se significasse un'opposizione a qualunque cosa che non sia convenzionale [per esempio "scetticismo" verso il paranormale, gli UFO, le teorie cospirative, etc]. In realtà, la parola "scettico", ha un significato diametralmente opposto. L'American Heritage Dictionary la definisce nella seguente maniera: "Chiunque abitualmente o in maniera istintiva tende a dubitare, a mettere in discussione, o è in disaccordo con asserzioni o conclusioni che sono generalmente accettate".

Nell'ambito della scienza attuale, le "conclusioni generalmente accettate" vengono ordinariamente presentate come se fossero "fatti" indiscutibili. Dal Big Bang, all'evoluzione dei pianeti, dalla natura delle comete, a fenomeni altamente speculativi e misteriosi quali i buchi neri, la materia scura e l'energia scura, la grande immagine cosmologica viene presentata con una tale sicurezza che i mass media in questo paese non l'hanno quasi mai messa in discussione.

Ma l'immagine può risultare assai meno chiara di quello che siamo stati indotti a credere. Completamente rimossi dai riflettori dei media scientifici, i critici hanno suggerito che un solo errore fondamentale ha finito per infettare le scienze teoriche. Questo errore è l'idea che l'universo sia elettricamente neutro – ossia che l'elettricità non abbia "niente a che fare" con lo spazio. È un'affermazione del tutto perversa, data la schiacciante importanza che l'elettricità ricopre nelle nostre vite.

Le più recenti nonchè fondamentali scoperte che sono state fatte hanno consistentemente messo in discussione le interpretazioni delle teorie convenzionali su questo punto. Allo stesso tempo, hanno incoraggiato un interesse considerevole verso un'ipotesi alternativa – ossia quella dell'Universo Elettrico.

Nello studio delle comete, per esempio, i ricercatori sono rimasti talmente confusi da alcune inaspettate scoperte che si può dire la teoria convenzionale sulle comete non esista più! Tuttavia le comete vengono descritte come "Pietre di Rosetta" perchè ci permettono di decifrare la formazione del sistema solare.

L'ipotesi sulla "palla di neve sporca", che è stata considerata per molti decenni un vero e proprio pilastro teorico, ha fallito in maniera clamorosa nel predire il comportamento delle comete e, in tempi più recenti, non è neppure stata in grado di fornirci le giuste informazioni sulla loro composizione.

Le sorprese più drammatiche hanno avuto inizio nel 1986, quando sono stati scoperti numerosi ioni carichi negativamente nel chioma della Cometa di Halley, ossia i segni di una attività energetico-elettrica, e l'assenza di una qualunque prova che indicasse la presenza di acqua nel nucleo della cometa. Negli anni seguenti, le comete hanno dato vita ad un flusso di "fenomeni misteriosi" talmente costante e regolare che gli astronomi sono stati costretti a tornarsene alle loro lavagne. Tali fenomeni comprendono:

• Getti supersonici altamente energetici che esplodono nei nuclei delle comete.

• Getti filamentosi di cometa, trattenuti a malapena, che si estendono per lunghe distanze e che rappresentano una sfida concreta all'atteso comportamento dei gas neutri nel vuoto.

• Superfici di cometa che presentano rilievi incisi in maniera precisa – l'esatto opposto di quello che gli astronomi si aspettavano seguendo il modello della “palla di neve sporca".

• Temperature inaspettatamente elevate ed emissioni di raggi x dalle chiome delle comete.

• Una riserva alquanto ridotta o la completa assenza di acqua e di altre sostanze volatili nei nuclei delle comete.

• Particelle minerali che possono formarsi solamente a temperature estremamente elevate.

• Comete che si infiammano mentre si trovano in uno stato di "congelamento profondo", oltre l'orbita di Saturno.

• Comete che si disintegrano a molti milioni di miglia dal Sole.

• Particelle di polvere di cometa divise più finemente e uniformemente di quello che ci si dovrebbe aspettare da "ghiaccio sporco" in sublimazione.

• Espulsione di particelle più grandi e di "ghiaia", un fenomeno che non era mai stato predetto se ci si rifà all'ipotesi che le comete sono risultate da nuvole primordiali di ghiaccio, gas e polvere.

• Minerali che possono essere creati solo a temperature elevate.

Tutte le scoperte appena elencate pongono enormi difficoltà al modello della "palla di neve sporca": sono tutte prevedibili caratteristiche del modello elettrico.

Nonostante tutto questo, ci sono buone probabilità che voi non abbiate mai anche solo SENTITO PARLARE dell'ipotesi della cometa elettrica! [Ma se aveste vissuto alla fine del diciannovesimo secolo magari potreste averne sentito parlare]. La ragione di questo è che le scienze spaziali si sono andate articolando nel corso del ventesimo secolo sulla base dell'assunto teorico che i corpi nello spazio siano elettricamente neutri. Una cometa elettrica andrebbe quindi ad incidere sulle fondamenta stesse su cui si reggono le scienze teoriche dei giorni nostri.

Se un assunto fondamentale come questo si dimostra errato, le relative ramificazioni andrebbero ben al di là delle teoria sulle comete. Secondo Wallace Thornhill e gli altri proponenti del modello dell'Universo Elettrico, la cometa elettrica è inestricabilmente legata al modello elettrico del Sole, un modello le cui implicazioni sono molto ampie:

Fu il dottor Charles E. R. Bruce della Associazione per la Ricerca sull'Elettricità - Electrical Research Association - che nel 1944, in Inghilterra, mise in moto l'elaborazione di un modello scientifico sul "sole elettrico". Secondo Bruce, la "fotosfera del sole [la superficie solare] ha l'aspetto, la temperatura e lo spettro di un arco elettrico; ha queste caratteristiche perchè è un arco elettrico, o un gran numero di archi in parallelo".

Questa caratteristica di scaricamento, ha affermato, "è responsabile di quel fenomeno che è stato osservato della granulazione della superficie solare". Il modello di Bruce, tuttavia, venne formulato sulla base di una comprensione convenzionale del lampo atmosferico, che gli permise di immaginare il Sole "elettrico" senza dover far riferimento a campi elettrici esterni.

[La parte esterna del sole è composta da tre differenti "zone": la fotosfera che è la superficie che vediamo, che ha una temperatura intorno ai 5000 gradi Kelvin, sulla fotosfera sono visibili le macchie solari (zone più fredde) e il fenomeno della granulazione che fa apparire la fotosfera stessa come composta da "granuli" (vedi foto in basso).

Al di sopra della fotosfera vi sono due zone in cui la densità del plasma (materiale ionizzato, atomi in cui gli elettroni sono separati dai nuclei) decresce e la temperatura aumenta: la cromosfera e la corona. I meccanismi di riscaldamento del plasma coronale non sono completamente chiari e generalmente sono attribuiti allo sviluppo di onde d'urto e fenomeni elettromagnetici e "magnetoidrodinamici".

Mentre la fisica del plasma è un campo molto sviluppato essa assume generalmente che il plasma sia elettricamente neutro: su scala macroscopica non vi sarebbe separazione tra cariche negative (ad es. elettroni) e positive (ad es. protoni e nuclei atomici). Il presente articolo espone il punto di vista dei ricercatori che considerano l'eventualità che tale separazione delle cariche possa esistere anche su scala macroscopica, fornendo una spiegazione a fenomeni di fisica planetaria e cosmologia attualmente poco chiari.]



 

[La fotosfera solare: evidente il fenomeno della granulazione e delle macchie solari ("sunspot")]



Anni dopo, un brillante ingegnere, Ralph Juergens, ispirato dal lavoro di Bruce, andò ad aggiungere alla sua ipotesi una possibilità rivoluzionaria. In una serie di articoli che vennero scritti a partire dal 1972, Juergens suggerì che il Sole non è un corpo elettrico isolato nello spazio, ma che giace all'interno di un più ampio campo galattico. Con questa sua ipotesi, Juergens fu il primo a compiere il salto teorico necessario per prospettare l'esistenza di una fonte di energia esterna per il Sole.

Juergens propose che il Sole è l'oggetto più positivamente carico nel sistema solare, il centro di un debole campo radiale elettrico e l'epicentro di un processo di "coronal glow discharge" ("scaricamento incandescente della corona") alimentato da correnti galattiche. Questo spiega il perchè una cometa, che si muove rapidamente attraverso un campo elettrico che va rafforzandosi, nel momento in cui si avvicina al Sole, cominci a scaricarsi sotto la pressione delle tensioni elettriche.

Per evitare di fraintendere questo concetto, è essenziale che distinguiamo il complesso modello elettrodinamico che è alla base dello scaricamento incandescente del Sole da un semplice modello elettrostatico che può essere facilmente confutato.

Da un capo all'altro della maggior parte del volume di uno scaricamento incandescente della corona il plasma è "quasi" neutro, e presenta praticamente lo stesso numero di protoni e di elettroni. Una situazione del tutto simile esiste all'interno di un tubo di luce fluorescente. La corrente viene trasportata principalmente da un impulso di elettroni all'interno di un debole campo elettrico verso l'elettrodo positivo [il Sole]. È solo al di sopra della corona, in prossimità del Sole, che il campo elettrico diventa sufficientemente forte da generare tutti i fenomeni brillanti ed energetici che osserviamo sul Sole.

Nel modello elettrico, la fonte di energia esterna del Sole è la ragione per la quale la temperatura si innalza in maniera SPETTACOLARE più tende ad aumentare la distanza dalla superficie del Sole – esattamente il contrario di ciò che ci si aspetterebbe di vedere se il calore irradiasse dal cuore del Sole. Dai circa 4400 gradi K [Kelvin – unità base della temperatura nel sistema internazionale] che si registrano a 500 chilometri al di sopra della fotosfera, la temperatura si innalza costantemente fino a raggiungere i circa 20.000 gradi K in cima alla cromosfera, all'incirca 2200 chilometri al di sopra della superficie del Sole.

A questo punto si verifica un aumento brusco, che eventualmente raggiunge i 2 milioni di gradi nella corona. E anche ad una maggiore distanza dal Sole, l'attività energetica di atomi ionizzati di ossigeno raggiunge la sorprendente temperatura di 200 milioni di gradi! Questa è l'ultima cosa che uno si aspetterebbe di vedere da una fornace nucleare nascosta nel nucleo del Sole. Ma è la natura osservata del processo di scaricamento della corona.

I teorici del modello elettrico sottolineano all'incirca due dozzine o più di caratteristiche del Sole che pongono dei problemi alla teoria standard, e che vanno dal "difficile" all'"impossibile" da spiegare. In ognuna delle casistiche, la caratteristica osservata segue logicamente dal modello dello scaricamento incandescente. Forse la più efficace illustrazione di questo contrasto è la questione del vento solare. Il Sole emette continuamente un flusso di particelle cariche positivamente, ma queste particelle non solo non vengono influenzate dalla forza di gravità del Sole, ma continuano ad accellerare man mano che si allontanano dal Sole.

Fin dai tempi della scoperta di questo misterioso comportamento, avvenuta molti decenni fa, i teorici del Sole non hanno mai messo a punto una spiegazione che potesse reggere ad un esame accurato. Pensavano di avere trovato una spiegazione parziale quando affermarono che la radiazione solare [la luce del Sole] continuava a spingere verso l'esterno le particelle cariche. Per i teorici del modello elettrico, questa non solo era una spiegazione debole, ma mancava anche di un qualunque sostegno sperimentale, il quale dovrebbe essere la prima risorsa da cui attingere.

I teorici del modello elettrico sono, infatti, disturbati dall'incapacità del mainstream scientifico di vedere ciò che ritengono essere del tutto evidente. Tutti gli elettrotecnici sanno che esiste un modo molto semplice per accelerare le particelle cariche – lo fanno regolarmente ricorrendo ai campi elettrici. Se il Sole è un corpo carico che si trova al centro di un campo elettrico, l'accelerazione di particelle cariche da parte di questo campo è un dato di fatto.

L'esempio più irresistibile di questo principio lo si è avuto fra il 15 e il 19 gennaio del 2005, quando si verificò l'eruzione di quattro potenti bagliori solari dal "sunspot 720" ("macchia solare 720"). Quindi, il 20 gennaio, la quinta esplosione produsse un'espulsione di massa dalla corona - coronal mass ejection [CME] - a velocità che vanno ben al di là della capacità di spiegazione da parte di un qualunque modello convenzionale.

Come riassunto nella Foto del Giorno su Thunderbolts, "Mentre spesso sono necessarie più di 24 ore alle particelle cariche di una esplosione solare per raggiungere la Terra, questa ha rappresentato una profonda eccezione. Solamente 30 minuti dopo l'esplosione, la Terra [che dista circa 96 milioni di miglia dal Sole] era immersa in quella che gli scienziati della NASA hanno definito "la più intensa tempesta protonica che si sia mai verificata in decenni".

È piuttosto indicativo il fatto che è quasi impossibile trovare, in tutti i tentativi mainstream di spiegare il vento solare, un qualunque cenno o memoria riguardante questo evento.

Il punto che qui si vuole sottolineare non è solamente che il modello elettrico è alla base delle difficoltà più problematiche a cui si trova di fronte la teoria standard: il modello è parte di una fotografia del cosmo più ampia e maggiormente unificata. Come la cometa elettrica conduce inevitabilmente al Sole elettrico, così la cometa elettrica ed il sole elettrico suggeriscono una prospettiva radicalmente nuova per tutte le scienze teoriche che vanno dalla storia planetaria alle origini del cosmo.

Wallace Thornhill, per esempio, suggerisce che la cometa elettrica fornisca il miglior modello per comprendere le caratteristiche della superficie dei pianeti e delle lune. Prove non riconosciute che si sono andate accumulando nel corso dell'Era Spaziale mettono in chiara evidenza che i pianeti sono corpi carichi di energia. Movimenti instabili all'interno del campo elettrico del Sole, o movimenti che portino i pianeti a incontri ravvicinati, condurrebbero ad eventi devastanti di scaricamento elettrico, e questo potrebbe indurre gli stessi pianeti ad assumere i connotati delle comete.

È quindi essenziale che venga attribuita un'alta priorità ad un'aperta riconsiderazione della storia planetaria. E questa indagine deve includere la possibilità che i pianeti fossero, in epoche precedenti, immersi nel processo di scaricamento elettrico e che la loro superficie fosse percorsa da eventi elettrici ad alto contenuto energetico. In altre parole, quello che sta succedendo sulle comete attive è un indicatore diretto delle forze che agirono sui pianeti in un'epoca remota dell'evoluzione planetaria.

L'esplorazione dello spazio ha rivelato continuamente caratteristiche dei pianeti e degli altri corpi rocciosi che non possono essere spiegate ricorrendo all'ipotesi degli impatti dallo spazio e alla famigliare geologia planetaria [vulcanismo, erosione acquifera, o diffusione di superficie]. Fin da quando sono stati puntati i telescopi sulla Luna, la singola caratteristica geologica che ha maggiormente catturato l'attenzione estatica degli astronomi sono stati i crateri.

Per interi decenni, la questione irrisolta fu quella di stabilire se i crateri sulla Luna si fossero formati a causa di attività vulcanica o piuttosto di un impatto esterno dallo spazio. Con il programma spaziale Apollo, gli astronomi hanno creduto che si fosse trovata una soluzione alla questione. I crateri dominanti sulla Luna erano stati creati dal violento impatto sulla superfice di oggetti celesti, questo è quanto dichiararono gli scienziati.

Questa conclusione parve tanto chiara che virtualmente nessuno si soffermò a sufficienza per notare la litania di fatti riguardanti i crateri lunari che mettono in dubbio l'intera ipotesi. Una volta che si affermò il modello dell'impatto dallo spazio, gli astronomi e i geologi cercarono di replicare in forma sperimentale gli schemi davvero unici riguardanti la formazione dei crateri sulla Luna e in ogni altra parte nel sistema solare.

In certe occasioni, la pubblicazione di notizie decretò i “successi” di tali esperimenti, ma ad un livello più fondamentale e scientifico, dove i modelli dettagliati dei crateri lunari richiedevano una conferma in forma sperimentale, gli esperimenti si rivelarono essere un totale fallimento. Le caratteristiche dei crateri che hanno origine dagli impatti ad alta velocità non corrispondono alle caratteristiche dei crateri lunari.

Né corrispondono alle caratteristiche dei crateri la cui presenza osserviamo in tale abbondanza sulla superficie di Marte o sulle Lune di Giove e di Saturno e di tutti gli altri corpi rocciosi che sono presenti nel sistema solare. Questo fallimento da parte degli esperimenti condotti per testare l'ipotesi dell'impatto dallo spazio, comunque, non pare che sia stato fatto oggetto di alcuna pubblicazione di notizie.

Le anomalie comprendono [tanto per citarne solo alcune]:

• La rimarchevole circolarità di quasi tutti i crateri di tutte le forme. Impatti obliqui dovrebbero invece dar vita a numerosi crateri ovali;

• La mancanza di quel danno collaterale che ci si dovrebbe attendere se la circolarità del cratere fosse dovuta ad un'esplosione avvenuta in prossimità del terreno, come nel caso di una detonazione termonucleare;

• Le superfici dei crateri appaiono essere piane e disciolte invece di essere costituite da uno scavo a forma di piatto causato dall'esplosione dell'impatto. Gli impatti e le esplosioni ad alto contenuto energetico – comprese le bombe atomiche – non causano lo scioglimento di materiale che sia sufficiente per creare superfici piane.

• Molti crateri sono caraterizzati da pareti ripide piuttosto che presentarsi nella forma di un piatto di scarsa profondità, una conformazione che ci si aspetta dall'esplosione causata da un impatto supersonico;

• L'inaspettata formazione di terrazze sulle pareti dei crateri più grandi, con la presenza di superfici disciolte per alcune di queste terrazze;

• Un gran numero di crateri secondari concentrati sui bordi dei crateri più grandi;

• L'assenza di crateri più grandi che attraversano i crateri più piccoli;

• Catene intricate di piccoli crateri lungo il bordo di crateri più grandi;

• Un numero estremamente eccessivo di crateri accoppiati e di catene di crateri;

• Dispersione minimale quando un cratere si inserisce dentro un altro;

• Ripetute e altamente “improbabili” associazioni di crateri che sono contigue a buche e strette vallate incise in maniera pulita, dalle quali il materiale è semplicemente scomparso;

• Raggi di “ejecta” [particelle emesse durante la formazione di un cratere] tangenziali al bordo del cratere;

• Anelli concentrici.

Invece di prendere in considerazione questi sfidanti, gli scienziati planetari hanno smesso di porsi le domande più importanti. Per la verità, devono ancora considerare un fatto di straordinaria importanza per il futuro della scienza planetaria: tutti i modelli riguardanti la formazione dei crateri primari nel sistema solare possono essere riprodotti attraverso lo scaricamento elettrico in laboratorio. Lo stesso non può dirsi di qualunque altro agente causale che è stato esplorato nel corso dell'era spaziale.

Il nostro vicino, Marte, il pianeta più studiato nel sistema solare [al di fuori della Terra] offre esempi quasi illimitati. La superficie di Marte rivela la prova evidente di quella che è una violenta cicatrice elettrica.

Lo stupendo abisso Valles Marineris si dispiega per più di 3000 miglia – l'equivalente di centinaia di Grand Canyon. Agli inizi degli anni 70, l'ingegnere Ralph Juergens ha ipotizzato che in un'età precedente descritta da un'elevata instabilità planetaria, gli archi elettrici fra corpi celesti carichi furono responsabili della creazione di molte delle caratteristiche che sono presenti su Marte. Nel 1974, Juergens scrisse a proposito del Valles Marineris:

“Quello che questa regione maggiormente ricorda è un'area percorsa da un potente arco elettrico che avanza in maniera non regolare lungo la superficie, scindendosi occasionalmente in due parti, e che si indebolisce di tanto in tanto, così che le sue tracce si restringono e degradano anche in linee di crateri disconnessi.”

Più recentemente, Wallace Thornhill ha sostenuto che l'intera regione del Valles Marineris ha la stessa morfologia del più grande fenomeno di scaricamento elettrico dell'universo – la galassia a spirale barrata. [Foto 1- Si veda Galassie a Spirale e Grand Canyon ]

All'inizio, gli scienziati planetari hanno speculato che era stata l'erosione dell'acqua l'agente che aveva reso possibile la creazione del Valles Marineris, ma questa teoria è stata confutata ricorrendo ad immagini a risoluzione più alta. Adesso, alcuni sostengono l'ipotesi di una diffusione di superficie e della relativa formazione di fenditure. Ma dopo aver condotto un esame più scrupoloso, non è possibile provare che si sia mai verificata alcuna diffusione di superficie.

E quindi che cosa è successo a tutto il materiale “mancante”? Seguendo l'ipotesi del modello elettrico, questo venne scavato in maniera esplosiva da un processo chiamato electric discharge machining [EDM]. E i residui risultanti non vennero solamente sparsi per tutta la superficie di Marte ma la maggior parte di esso venne accelerato elettricamente nello spazio. Dalla posizione di vantaggio nella quale ci troviamo, non è una coincidenza che ancora oggi le meteoriti di Marte stiano cadendo sulla Terra.

Una delle più affascinanti anomalie geologiche di Marte è la presenza dei cosidetti “mirtilli” - ossia di sfere molto piccole di colore blu-grigio, del diametro di 0.45 centimetri che sono contenute nel suolo Marziano che è ricco di ferro. Dopo un'analisi spettroscopica, le piccole sfere furono identificate come “concretions hematite” - “masse sferiche di ematite". Il processo formativo dei “mirtilli” rimane un vero enigma per gli scienziati planetari.

Il fisico del plasma, il Dr. CJ Ransom dei laboratori Vemasat, ha tuttavia condotto il proprio esperimento per testare la spiegazione del modello elettrico sulle masse sferiche e i mirtilli Marziani. Ha investito una certa quantità di ematite con un arco elettrico e ciò che ne è risultato sono piccole sfere incassate con caratteristiche del tutto simili ai mirtilli Marziani. Nessun altro esperimento di laboratorio ha fornito un simile risultato [Foto 2 – Si veda I “Mirtilli” Marziani in Laboratorio ]

Una caratteristica significativa dello scaricamento elettrico è il suo essere SCALABILE – ossia quello che viene osservato su piccola scala è anche osservabile su scala più grande. E i “mirtilli” di Marte potrebbero avere una ben più grande analogia con la forma a cupola dei crateri presenti sul pianeta. Le telecamere in orbita hanno infatti scoperto numerosi crateri con cupole o sfere che sono contenute al loro interno.

Questi crateri a cupola variano nella loro ampiezza da un centinaio di metri o meno [il limite della risoluzione della telecamera] fino ad un chilometro o più. Le similarità fra questi crateri a cupola e i “mirtilli” di laboratorio, molti dei quali formano crateri interni, sono impressionanti. Questo elemento da solo dovrebbe essere più che sufficiente ad incoraggiare un'indagine ulteriore. [Foto 3 – Si veda Crateri a Cupola su Marte]

Per i proponenti del modello dell'Universo Elettrico, la prova geologica delle cicatrici elettriche che sono presenti sui pianeti e sugli altri corpi rocciosi è una dimostrazione irresistibile della violenza planetaria e dell'instabilità che prevalsero nel passato. L'ipotesi di un sistema solare instabile, nel recente passato venne portata avanti da Immanuel Velikovsky nel suo bestseller del 1950, “Mondi in Collisione".

Anche se Velikovsky venne sommariamente accantonato dal maintream scientifico, l'Era Spaziale ha fatto di più per sostenere Velikovsky piuttosto che confutarlo!

Mentre i proponenti dell'Universo Elettrico Wal Thornhill e i suoi colleghi riconoscono che Velikovsky si è sbagliato su molti punti, sono però d'accordo con lui nel sostenere che l'elettromagnetismo è stato l'elemento chiave di una precedente epoca di catastrofe planetaria. E oggi, le prove sono diventate schiaccianti che viviamo in un sistema solare che è “collegato elettricamente".

Nel caso di Giove, vediamo all'opera questa connettività elettrica nella relazione che intercorre fra il pianeta stesso e la sua luna più vicina, Io. Nel 1979, l'astrofisico Cornell Thomas Gold propose nella rivista Science che i “vulcani” di Io fossero in realtà masse scariche di plasma liquefatto - plasma discharge plumes.

L'ipotesi di Gold venne confutata sulla stessa rivista da Gene Shoemaker, et al. Ma nel 1987, i fisici del plasma Alex Dessler e Anthony Peratt sostennero l'interpretazione di Gold in un articolo pubblicato nella rivista Astrofisica e Scienza Spaziale - Astrophysics and Space Science. Dessler e Perat sostennero che sia la penombra filamentosa che la convergenza di ejecta in anelli ben definiti sono effetti dello scaricamento del plasma che non hanno equivalenti nei vulcani.

Successivamente, la sonda Galileo registrò immagini incredibili dei “vulcani” e scoprì precisamente quello che era stato predetto dal teorico del modello elettrico Thornhill:

Temperature così alte che saturarono le telecamere; il MOVIMENTO dei “vulcani” lungo la superficie di Io; e il posizionamento dei “vulcani” lungo le scogliere di valli precedentemente scavate. È adesso indisputabile che la base del “rifiuto” di Shoemaker dell'ipotesi di Gold era sbagliata.

È anche indisputabile che le predizioni altamente specifiche di Thornhill erano corrette. E tuttavia, né il giornale Science e neppure tutte le altre pubblicazioni scientifiche, hanno mai pensato anche solo di rivedere la questione [Foto 4 – Si veda Retrospettiva su Io ].

Su Marte, le mostruose “dust devils” [tempeste di polvere] - che sono 10 volte più grandi di qualunque tornado sulla Terra – hanno rivelato il disinteresse degli scienziati planetari nei confronti di qualunque cosa che abbia a che fare con l'elettricità. Un comunicato stampa della NASA ha dichiarato, “Quando gli esseri umani visiteranno Marte, dovranno ben guardarsi da torreggianti tempeste di polvere elettrificate.”

Ma gli scienziati attribuiscono i campi elettrici delle “dust devils” al riscaldamento solare e alla risultante energia meccanica di convezione dell'aria [malgrado il fatto che l'atmosfera di Marte sia densa meno dell'un percento di quella della Terra, e la capacità meccanica della sua aria di spostare particelle di polvere è nel migliore dei casi improbabile]. Nella interpretazione del modello dell'Universo Elettrico, le colonne rotanti di aria e polvere sono una conseguenza naturale delle correnti elettriche atmosferiche [Foto 5 – Si veda La NASA sulle Tempeste di Polvere Marziane -- “Sono Elettrificate!” ].

Anche nei fenomeni meteorologici sulla Terra, testimoniamo la presenza della carica planetaria. Non è più possibile immaginare la Terra come un corpo isolato, elettricamente neutro, quando osserviamo giganteschi gruppi di fulmini al di sopra di nubi temporalesche che si scaricano nello spazio. Fin dagli inizi degli anni 90, alcuni ricercatori hanno documentato l'esistenza di fulmini chiamati “sprite” e “blue jet” che guizzano verso l'alto durante i temporali estendendosi fino a 15 chilometri in direzione dello spazio.

Alcuni giganteschi “getti” vengono sparati anche a 80 chilometri di distanza. Questi ricercatori hanno scoperto che ogni volta che si verifica uno “sprite” al di sopra delle nuvole, ne risulta un fascio di fulmini positivi al di sotto delle stesse nubi. Sono le due parti di un singolo fenomeno di scarica elettrica che si allunga dallo spazio fino alla superficie della Terra. [Foto 1 – Si veda Fulmini giganti nello spazio ]

È stato detto che i matematici, quando considerano questioni che riguardano la fisica, “non hanno principi". Non si considerano legati ai principi della fisica. Ed esiste un'ovvia soddisfazione quando alcuni fenomeni “inspiegabili” paiono offrire la possibile scoperta di una “nuova” legge fisica o principio. Questo può essere molto più attraente che una risposta diretta da parte di una disciplina nella quale il matematico non è preparato.

Nessuna delle prove che abbiamo fin qui fatto notare, per esempio, sono una violazione di alcuna legge fisica o principio. I modelli che sono stati evidenziati trovano un'immediata spiegazione nei fenomeni elettrici. Tuttavia la scienza spaziale continua ad ignorare la forza elettrica e a preferire soluzioni del tutto speculative, arrampicandosi su presupposti che non sono più sostenibili.

All'inizio gli astronomi erano convinti che lo spazio fosse un vuoto perfetto e che le correnti elettriche fossero quindi inconcepibili. Successivamente gli astronomi scoprirono che lo spazio è pervaso da particelle cariche ossia plasma. Nonostante questa scoperta, gli astronomi erroneamente conclusero che una separazione di carica non avrebbe potuto essere mantenuta nello spazio; ogni carica sarebbe stata velocemente neutralizzata dal movimento di carica [la corrente elettrica].

Ma come sa ogni elettrotecnico, quella conclusione dipende dall'abilità di trasportare corrente da parte del plasma. Per quanto riguarda il plasma che è sparso nello spazio, l'abilità di trasportare corrente elettrica è senza dubbio presente ma in forma limitata. Il risultato è che le correnti di scala cosmica generate dal movimento relativo di regioni dissimilari di plasma possono essere sostenute solo su archi di tempo lunghi.

La firma di tali correnti elettriche sono i loro campi magnetici. Ma quando i campi magnetici vennero rilevati nello spazio, gli astronomi li considerarono come fossero “congelati” nel plasma – come se il plasma fosse un superconduttore – allo scopo di mantenere la nozione della neutralità elettrica. Ma il plasma che è presente nello spazio non è un superconduttore: deve essere quindi fornita energia elettrica esterna per mantenere attivi i campi magnetici che sono stati osservati nello spazio.

Dal più largo circuito della Via Lattea, le correnti fluiscono nel dominio del Sole. A distanze planetarie dal Sole, il campo è debole e insignificante. Ma come la corrente “comincia a mordere” nel suo avvicinarsi al Sole, e più la potenza elettrica diventa sufficiente ad illuminare il Sole. Una cometa trascorre la maggior parte del suo tempo nella parte più debole del campo, lontana dal Sole, ed è possibile che bilanci il proprio voltaggio con quel campo.

Ma come la cometa tende ad accelerare più si avvicina al Sole, e più tende a crescere in maniera profonda il suo sbilanciamento con l'ambiente circostante e comincia quindi a scaricarsi. Gli astronomi sono stati incapaci di notare tali osservazioni fondamentali per una ragione che nessuno vuole ammettere: sono impreparati in maniera imbarazzante in tutto ciò che riguarda l'elettrodinamica.

Questo spiega perchè gli elettrotecnici hanno un enorme vantaggio nella comprensione delle attività elettriche nello spazio. Un saldatore potrebbe capire più facilmente le valli e i crateri su superfici solide di un qualunque scienziato planetario. Ma piuttosto che espandere la loro conoscenza fino ad includere l'elettricità, gli astronomi e i cosmologi hanno invece contratto le scienze spaziali ad un campo limitato di teorie “eleganti” [ossia pretenziose o irrilevanti].

Ogni giorno sentiamo parlare dei grandi passi avanti e delle scoperte nella ricerca per identificare cose invisibili – e ipoteticamente onnipresenti – come la materia scura, l'energia scura, le stelle neutroniche e i buchi neri. Queste congetture sono inevitabili dato che i cosmologi continuano ad essere inconsapevoli dell'abilità del plasma di organizzare delle strutture nello spazio [Foto 2 – Si veda Galassie di Plasma ] e la STRANEZZA di queste congetture continua a crescere, fino al punto che la fotografia attuale del cosmo assomiglia all'episodio più “spaziale” di Star Trek.

E' tragico che l'establishment scientifico – che lavora mano nella mano con i media più popolari – sia riuscito a convincere un gran numero di persone che le domande cosmologiche più importanti siano di solo dominio dei matematici. Il fatto che comunemente si guardi alla matematica per la formulazione di una “teoria su tutto” rivela l'errore grossolano che sta dietro a questo tipo di pensiero.

Come ha scritto il proponente dell'Universo Elettrico, Thornhill, “La sola idea che alcuni scienziati possano essere vicini ad una “teoria su tutto” è una fantasia che va di pari passo con la teoria della Terra piatta. Non è possibile formulare una teoria su tutto fino a quando non sapremo tutto ciò che riguarda l'universo. E date le sorprese che giungono dallo spazio a getto quasi continuo, è evidente che ne sappiamo ancora molto poco".

Continua Thornhill, “A coloro che aspirano a formulare una teoria su tutto viene detto che devono studiare la “matematica incredibilmente complessa e astratta”, la cui conoscenza è richiesta per un tale compito. Ma chi è che lo dice?

I matematici, naturalmente. È una visione ristretta in maniera cronica, come se si guardasse attraverso l'estremità sbagliata del telescopio e si immaginasse di vedere le stelle. Questa visione ha condotto ad un vero e proprio elitismo nel campo della fisica e questo sulla base dell'abilità matematica dei suoi adepti. I più bizzarri sono stati coloro che sostengono di vedere Dio a loro immagine e somiglianza – quella di un matematico".

Non è poi una azione tanto audace per la persona comune mettere in dubbio la sostenibilità di teorie scientifiche popolari. Infatti è spesso il non specialista, colui che è meno ostacolato da precedenti credenze e da conflitti di interesse, che può più facilmente discernere quello che è davanti ai suoi occhi.

Questo è particolarmente vero quando si parla delle sfide poste dall'ipotesi dell'Universo Elettrico. I teorici del modello elettrico, del tutto in contrasto con i matematici, si occupano più rigorosamente di quello che può essere predetto, osservato e ripetuto. Grazie all'Era Spaziale, le prove sono là a disposizione per tutti quelli che vogliono vederle.

In maniera crescente, il pubblico sta esprimendo numerosi dubbi sulle direzioni prese dalla teoria popolare. Quello che ottengono in risposta sono assicurazioni che i “pezzi del puzzle” stanno cadendo al loro posto. Ma coloro che seguono le scoperte con un occhio “scettico” vedono le cose in maniera molto diversa. La credibilità della scienza non può essere sostenuta con le auto-congratulazioni.

Ed è solo nel miglior interesse delle istituzioni scientifiche di aprire la porta a discussioni che sono state escluse per lungo tempo. Difatti, il futuro della scienza dipende proprio da questo.

Per approfondimenti scientifici (in inglese):   Thunderbolts   &   The Electric Sky   &   Plasma Cosmology   &   Holoscience
 




permalink | inviato da houseofMaedhros il 3/12/2009 alle 13:42 | Leggi i commenti e commenta questo postcommenti (1) | Versione per la stampa


29 agosto 2009

GIUSEPPE SERMONTI - UN OMAGGIO

Il mondo dei biologi italiani è caratterizzato forse più di quello di altre nazioni da una forte dose di conservatorismo e conformismo: è un mondo "ideologizzato", intollerante e totalitario, ben rappresentato da alcune figure emblematiche come Montalenti, Chiarelli o Buzzati Traverso.
Posizioni politiche di orientamento dogmaticamente progressista e interessi economici più o meno manifesti, di cui si fanno portatori, talora involontari, molti ricercatori e studiosi italiani, convergono verso un uso strumentale delle scienze biologiche. Il tutto avviene in una cornice dove lo scientismo, anche se rifiutato da alcuni a parole, è onnipresente nei fatti, con la sua pretesa di imporre la scienza come unica, concreta, oggettiva forma di conoscenza della realtà e come fondamento di valori etici (anche di recente abbiamo sentito affermazioni in tal senso).

Un esempio di tutto ciò emerge con estrema chiarezza quando si affronta in modo critico il tema dell'evoluzionismo darwiniano, dogma indiscutibile per la biologia italiana forse più che per quella di altri paesi, dove il dibattito per lo meno trova alcuni seppur precari spazi (vedi la Francia o gli USA). Così abbiamo assistito in questi ultimi decenni a vere e proprie scomuniche nei confronti di quei pochi studiosi che hanno ritenuto un dovere scientifico, prima ancora che un diritto, ripensare, in modo intellettualmente libero, ai fondamenti della Natura nella sua stabilità e nel suo divenire.
Tutto ciò ha dell'incredibile sia dal punto di vista dei principi che dovrebbero stare alla base della scienza, sia anche in confronto con altre discipline come la fisica. Infatti la scienza moderna per sua natura dovrebbe essere priva di certezze assiomatiche, di dogmi indiscutibili, di posizioni fideistiche: la sua spesso esaltata "laicità" dovrebbe nascere proprio da questo, cioè dall'assenza di un principio di autorità estrinseco e intollerante, dall'assenza di una unicità coatta di pareri.

In altre parole dovrebbe essere "pluralista" non solo nei dettagli, ma anche nelle interpretazioni di fondo dei grandi fenomeni naturali, tra i quali si pone, appunto, quella che si suole definire l'evoluzione della specie.

Il libero dibattito anche su questi temi basilari è lo stimolo per ogni avanzamento della conoscenza: soffocarlo, criminalizzarne gli autori, additandoli come "eretici", in un'atmosfera di vero e proprio terrorismo psicologico, denota una pericolosissima, e contraddittoria, intolleranza che dimostra come la scienza per molti non sia altro che -ci si scusi l'accostamento di termini- un tipo di fondamentalismo "religioso" laico, materialista. Infatti si unisce l'arroganza di chi si ritiene l'unico detentore della verità, vista però in una cupa ottica letteralista e dogmatica, con una visione del mondo che nega a priori ogni possibile apertura verso la dimensione del Sacro, del Trascendente.
È appena il caso di accennare che tale "apertura" non significa affatto commistione tra livelli qualitativi diversi, cioè il mondo della metafisica e quello della scienza, ma integrazione reciproca basata su corrispondenze e analogie. Questo fondamentalismo parascientifico lo si riscontra in Montalenti quando affermava in modo perentorio che «Le scienze naturali debbono cercare di dare interpretazioni naturalistiche, in senso causale, meccanicistico»1 dei fenomeni del mondo biologico. Ma in quali leggi eterne o testi sacri sta scritto che la natura debba essere spiegabile in termini scientifici solo attraverso il paradigma meccanicista? Perché limitare il programma di ricerca in modo così unilaterale e quindi antiscientifico?
Il meccanicismo, infatti, non è la "scienza", ma solo un modo di interpretare i fenomeni naturali, un modo fra i tanti, strettamente legato allo scientismo. Ad esempio, partendo dagli stessi dati, con procedure rigorosamente controllate e sequenziali, si possono fornire spiegazioni perfettamente coerenti di certi processi biologici anche in una cornice olista o strutturalista, quindi lontana dal meccanicismo.

Ma, come abbiamo poco prima accennato, anche confrontando tra loro due discipline scientifiche, quali la biologia e la fisica, emerge con chiarezza l'anomalia della prima. Infatti in ambito fisico non esiste nulla di lontanamente paragonabile con l'intolleranza vigente in biologia nei confronti di ogni concezione della natura vivente alternativa a quella egemone, di stampo meccanicista. In fisica le nuove teorie germogliano in libertà (il che non significa che non ci siano accesissimi dibattiti e scontri furibondi!), forse anche in modo anarchico, ma fecondo per l'avanzamento della disciplina. In biologia, invece, si cerca di soffocarle senza nemmeno dare spazio a un vero dibattito, di cui con tutta evidenza l'Establishment ha paura.
Infatti troppi interessi, anche economici, sono in gioco, legati al dominio e allo sfruttamento della natura al cui progetto risulta estremamente funzionale il paradigma meccanicista (piccolo inciso: per gli stessi motivi, non a caso la medicina si trova in condizioni talora simili).

Infatti l'indagine biologica di tipo meccanicista, con il suo spirito analitico, atomistico, parcellizzante, seziona il mondo vivente in parti disanimate per carpirgli ogni segreto, non per desiderio di astratta conoscenza (anche se la scienza pura ambisce a questo), ma per poterlo possedere.

In un panorama così problematico, conflittuale e spesso soffocante si inserisce la lunga e feconda attività di Giuseppe Sermonti, docente universitario, prima a Palermo e poi a Perugia, e biologo di fama internazionale, però mai approdato a Roma. È stato autore di ricerche all'avanguardia nel campo della genetica dei microorganismi, scoprendo la ricombinazione genetica parasessuale in Penicillium e in Streptomyces.
Per tre anni ha presieduto l'Associazione Genetica Italiana e, nel 1980, è stato vice presidente del XIV Congresso internazionale di Genetica, suscitando la sorpresa dei suoi detrattori italiani. La stima di cui godeva all'estero è testimoniata anche dalla sua nomina a Presidente della Commissione Internazionale per la Genetica dei microrganismi industriali.

Ha scritto importanti testi scientifici tra cui ricordiamo Genetics of antibiotics producing microorganisms (Wiley & Sons) e Genetica generale (Boringhieri).
È autore anche di numerosi libri e saggi di riflessione critica sulla scienza moderna in generale o su alcuni aspetti particolari. Ricordiamo:
Il crepuscolo dello scientismo (Rusconi, 1971),
La mela di Adamo e la mela di Newton (Rusconi, 1974),
Dopo Darwin (Rusconi, 1980),
Le forme della vita (Armando, 1981),
L'anima scientifica
(Dino editori, 1982),
La luna nel bosco (Rusconi, 1985),
una acuta analisi su Goethe naturalista, contenuto in un testo di vari autori, dal titolo Goethe scienziato (Einaudi, 1998),
e il recentissimo Dimenticare Darwin (Rusconi, 1999).

Inoltre a Sermonti dobbiamo degli interessanti studi sulle fiabe e le loro connessioni con il mondo del simbolo:
Fiabe di luna. Simboli lunari nella favola, nel mito, nella scienza (Rusconi, 1986),
Fiabe del sottosuolo. Analisi chimica delle fiabe di Cappuccetto Rosso, Biancaneve, Cenerentola (Rusconi, 1989),
Fiabe dei fiori (Rusconi, 1992).

Ancora dobbiamo ricordare diverse commedie da tavolo, cioè recitate da interpreti seduti attorno a un tavolo, senza la presenza di scenografie. Alcune di queste sono raccolte in Profeti e Professori (Di Renzo Editore, 1997). Infine va menzionata la sua trentennale attività di divulgatore di alto livello su vari periodici e su quotidiani quali, in particolare, «Il Tempo» di Roma, dove chi scrive, già nei primi anni settanta, ebbe già il piacere di apprezzarne gli interventi sia in campo scientifico, sia nel settore delle discipline umanistiche.

Il suo costituisce un caso emblematico in Italia, rivelatore dei disegni ideologici egemonici perseguiti in modo lucido da alcuni personaggi di spicco della biologia nostrana e seguiti passivamente per conformismo e mancanza di indipendenza intellettuale dagli altri, rappresentanti la "maggioranza silenziosa" dei biologi italiani che, in quanto "maggioranza silenziosa", purtroppo non ha nulla da dire e rimane testimone pavida e muta di vergognosi ostracismi e attacchi denigratori contro chi osa uscire dalla massa e rompere gli schemi precostituiti.

Sermonti non nasce "eretico", ma lo diventa attraverso varie fasi del suo pensiero, portandosi in un primo tempo su posizioni vitaliste, e successivamente approdando al platonismo e al neoplatonismo, in un lungo e sofferto itinerario di riflessione sul significato, sui retroscena e le implicazioni della disciplina che insegnava. Questi sono tutti fattori che sfuggono a chi ha trasformato la propria mente in un computer assai efficiente e produttivo, tecnologicamente perfetto, ma fatalmente privo, per suo natura, della dimensione della "profondità" e della "creatività", elementi specifici e qualificanti l'uomo integrale, completo.
Sermonti è al contempo scienziato, filosofo in senso antico, perché attento al fondamento delle cose, al loro "perché", e anche poeta, dove poiesis ritrova il suo significato etimologico di "creazione" non anarchica e scomposta, ma in aderenza a uno schema archetipale: lo scienziato, il filosofo e il poeta costituiscono tre figure che si sono maturate e armonizzate nella sua personalità con il fluire del tempo, attraverso numerosi passaggi, ripensamenti, crisi, come lui stesso ha accennato in alcune occasioni.

Sermonti rammenta che alla fine degli anni sessanta, quando insegnava Genetica all'Università di Palermo,

nel suo «animo la scienza era entrata in crisi. Ricordo una sera, -scrive- mi aggiravo tra i banchi dell'aula vuota e chiedevo a me stesso: "Perché insegno Genetica? Perché insegno la Scienza? Insegno qualcosa a cui non credo, anzi insegno il contrario di ciò a cui credo". La scienza non ci aiuta a conoscere la realtà, anzi si adopera ad insegnarci che la realtà non conta, valgono solo alcuni principi astratti che l'uomo della strada non può comprendere, non può vivere. La scienza non si rende neppure utile. Essa riversa i suoi prodotti sulla società, crea necessità artificiali che coincidono con ciò che essa sa produrre»2.

Eppure per lungo tempo Sermonti aveva creduto alla "utilità della scienza" per l'uomo (ad esempio, nel caso degli antibiotici).
Presto nemmeno il metodo sperimentale riuscì più a soddisfarlo, nonostante passi per essere uno degli elementi più solidi e convincenti della scienza moderna. Infatti esso, scrive Sermonti,

«può affrontare solo un mondo dissociato e condizionato, deve scomporre le cose per poterle leggere e può toccare solo quella parte della realtà che si presenta all'appuntamento sempre rigorosamente eguale. Cioè nulla che riguardi l'uomo».3

In definitiva la scienza mette in luce solo i problemi a cui sa fornire una risposta, e ignora, definendoli di nessuna importanza, quelli a cui è incapace di offrire una soluzione. D'altra parte, il metodo sperimentale ha un idolo, il "dato", a cui attribuisce un carattere qualificante indiscutibile: l'oggettività.

Ma già nel 1971, scrivendo Il crepuscolo dello scientismo, Sermonti, in linea con l'epistemologia più valida e convincente, affermava che

«l'obiettività scientifica» non esiste, in quanto dallo «stesso materiale due scienziati possono trarre conclusioni diverse, ma ambedue vere, sebbene sotto certi aspetti l'una possa valere più dell'altra e quindi a buon diritto superarla; ma ci sarà certamente qualche aspetto per cui anche l'altra è vera».4

Questo non equivale, però, a fare dell'anarchismo sperimentale e teorico, confondendo verità e menzogne: infatti esistono

«anche le cose false, che non hanno cioè neppure un briciolo di verità, ma di queste cose appunto non vale la pena di affermare il contrario».5

Peraltro un dato, anche quello più attendibile e certo, assume significato solo se inserito in una "trama simbolica" che lo dignifica e qualifica.
Per lungo tempo Sermonti aveva cercato di conciliare nel modo classico le "verità della scienza" e le "verità della fede"6, un modo francamente insoddisfacente (purtroppo ancora diffuso in ambito cattolico) in base al quale si postulano due dimensioni incomunicabili e separate (viene da pensare alla formula laicista di "libera Chiesa in libero Stato"), che non si devono disturbare a vicenda con interferenze anche se, alla fine, presentano due concezioni della realtà agli antipodi, fortemente contrastanti.
Ma questo è molto pericoloso se si ritiene veramente che la dimensione spirituale abbia un suo valore conoscitivo e una sua dignità da preservare. Infatti San Tommaso sottolineava giustamente che

«è profondamente errato ritenere che, riguardo la verità di fede, sia indifferente che cosa si pensi del creato, purché si abbia una concezione esatta di Dio…; poiché un errore sulla natura della creazione si riflette sempre in una errata nozione di Dio».

E più recentemente un filosofo laico, ma di grande profondità, come Arnold Gehlen, ha affermato:

«Che l'uomo si concepisca come creatura di Dio oppure come scimmia arrivata implica una netta differenza nel suo atteggiamento verso i fatti della realtà; nei due casi si obbedirà a imperativi in sé diversissimi».

Quindi la "separazione" è del tutto inconsistente in quanto ci sono, almeno in potenza, una serie di conseguenze logiche che rendono "impossibile" nella stessa persona la coesistenza pacifica della dimensione del Sacro e di quella della Scienza moderna, almeno di quella "ufficiale" o "normale" nel senso inteso da Thomas Kuhn. Ogni illusione di farle convivere in questo modo è quindi assurda e irrealistica.

Sermonti supera tale impostazione quando percepisce con nettezza che la scienza moderna nei suoi aspetti convenzionali non sa dire nulla circa il destino, l'ordine, il significato della natura7. «Cosa è successo con l'inizio della scienza moderna?», si chiede, e la sua risposta è la seguente:

«la scienza ha rinunciato alla ricerca dell'armonia e, con passione che certamente nasconde un sottile demonismo, si è lanciata alla ricerca del caos, alla adorazione del disordine e del nulla primigenio»8.

E ancora, sotto un altro punto di vista, si può asserire che

«tutto l'impegno contenuto nella fondazione della Tecnica e della Scienza contemporanea è consistito nel privare le opere umane di ogni significato, cioè di deritualizzarle. Il significato è un'esigenza che limita l'efficienza, obbligando l'operatore a una quantità di adempimenti formali che lo distraggono da perseguire direttamente e alla spiccia il punto di arrivo. I grandi progressi realizzati dalla tecnica sono stati semplicemente il risultato dell'abolizione dalle operazioni umane di ogni sacralità: ciò ha reso, come per incanto, le pratiche umane meravigliosamente efficienti, ha consentito di porre ogni cosa in commercio, di sviluppare da ogni operazione un'industria. A un solo prezzo, appunto: che tutto rinunciasse al suo significato. Ma la natura resiste alla sconsacrazione»9

e, nonostante il disincanto in cui Tecnica e Scienza hanno preteso di sprofondare il mondo, la sacralità riemerge nelle cose, in modo diretto ed elementare.

Il "significato" è inerente alla stessa vita in sé, che Sermonti equipara a un "gioco sacro", cadenzato e regolato da leggi e ricorrenze, ritmi e cicli, che con la sua struttura simbolica fa trasparire l'Eterno, sempre presente dietro le parvenze della manifestazione cosmica. In altre parole, il divenire del bios, ma anche quello dell'intera Natura, si rivela ordinato: in quanto tale è un'epifania dell'Essere che nelle forme lascia la sua impronta.

La scienza, ci insegna Sermonti, per molti aspetti è simbolicamente figlia di Apollo, Hermes, Dioniso (o della loro ombra?), ma anche delle Moire, in quanto pura (almeno così si autodefinisce) come Apollo, elegante come Hermes, giocosa come Dioniso, ma portata per sua intrinseca natura a sezionare, tagliare, parcellizzare la realtà fisica, secondo un'attitudine tipica della Moire10.
Questo è il suo destino derivante dalle sue origini radicate in un orizzonte mitico-simbolico che si è reso autonomo -diremmo, "emancipato"- dal sacro. E ciò può risultarci comprensibile solo per merito delle nostre conoscenze umanistiche, dimostrando così la stretta correlazione tra discipline scientifiche e discipline umanistiche (altro che "due culture" secondo l'impostazione di Snow!).
Però va aggiunto che, forse, da alcune di queste "matrici" può derivare un riposizionamento degli obiettivi e del ruolo della scienza, oltre che dei suoi metodi: in particolare reintegrandola in un apollinismo dionisiaco, superando così l'oscura e opaca influenza delle Moire.

In altre parole, ci riferiamo a una visione della natura di tipo archetipale e solare, posta sotto il segno di Apollo, dove la gratuità e la festosità del gioco, condotto da Dioniso (ma si potrebbe pensare anche al lila indù), ridimensiona e trascende la miseria ragionieristica e mercantile del funzionalismo e dell'utilitarismo di ogni evento e di ogni struttura biologica, postulati dal darwinismo. Un qualcosa di questo genere già esiste, anche se in fieri, e ciò lo dobbiamo anche al tenace e appassionato lavoro di Giuseppe Sermonti, che la ha prefigurata e definita come una disciplina "che cerca modalità e ricorrenze", cioè una "scienza dei tipi" o degli "archetipi", che aggiunga mistero e meraviglia al mondo, non glieli sottragga per rendere l'uomo tranquillo11.

Il futuro ci dirà se essa potrà avere una sua dignità all'interno di una visione pluralista del settore, e non dovrà invece continuare a vedersi addirittura negato lo status di scienza.

Affrontando il tema della integrazione reciproca tra scienza e religione, Sermonti osserva che preliminarmente servirebbe che la religione abbandonasse «il suo carattere puritano» elevandosi «a rappresentazione del Cosmo, a contemplazione dei principi, dei segni e dei simboli»12. La scienza, da parte sua dovrebbe trasmutarsi, liberandosi dallo spirito calcolatore, borghese, mercantile, e quindi, sotto un certo aspetto, anch'esso «puritano», diventando , appunto, la «scienza degli archetipi», cioè delle forme che sottendono la natura, di cui aveva parlato in precedenza. Ponendosi, quindi, al di sopra dei rispettivi e angusti limiti, in un emozionante e pericoloso "al di là del bene e del male" ci troveremmo in una situazione in cui

«una religione elevata al piano metafisico ed una scienza alla ricerca dello spirito del mondo possono identificarsi, ritornare ad essere un'unica cosa».13

L'impegno di Sermonti, volto a chiarire e a demistificare alcuni pervicaci luoghi comuni, iniziò a rivolgersi al grande pubblico nei primissimi anni settanta con Il crepuscolo dello scientismo e successivamente con La mela di Adamo e la mela di Newton. In quest'ultimo libro Adamo e Prometeo vengono presentati dall'Autore come simboli di due fasi della caduta dell'uomo, del suo allontanarsi dal Divino, dall'Essere, e del suo sprofondare nell'opacità del cieco divenire: costituiscono gli archetipi dell'umanità occidentale.[*]

Sermonti critica in modo sistematico lo scientismo, da lui definito una "ideologia politica" in cui si trasforma la scienza nel momento in cui vuole rifondare l'uomo e il suo destino biologico. Il buffo è che tutta questa arroganza risulta assai poco motivata, dato che, come egli rileva, la scienza non ha poi tanti successi di cui essere fiera, dato che specie la biologia e la medicina hanno conseguito notevoli risultati solo vampirizzando sistematicamente le conoscenze empiriche, popolari, del passato, spesso residui di una sapienza religiosa, e diffondendole in modo sistematico e razionalizzato, come se fossero state conquiste proprie, o impossessandosi del merito di fenomeni positivi (quali la diminuzione di gravi malattie contagiose), quando invece l'azione svolta dalla medicina aveva avuto una influenza assai modesta sui fatti.
A titolo di esempio riportiamo alcuni episodi significativi. Il mondo contadino sapeva da tempo che il contrarre il vaiolo dalle mucche, come avveniva ai mungitori, ammalandosi in forma lieve, preservava dal vaiolo umano. Questa conoscenza popolare, trasmessa a un medico di campagna del XVIII secolo, permise di mettere a punto in Inghilterra le prime forme rudimentali, empiriche, di vaccinazione antivaiolo, anche se mancavano ancora del tutto le conoscenze immunologiche tali da far comprendere il meccanismo d'azione di questa misura di profilassi. Il chinino, usato a lungo e con efficacia per guarire dalla malaria, solo nel secolo scorso fu identificato come principio attivo ed estratto dalla corteccia di una pianta, la Cinchona. Già dal XVII secolo il suo uso terapeutico, sotto forma di polvere di corteccia di china, era stato introdotto in Europa dall'America del sud, dove da tempo era impiegato dalla medicina tradizionale degli Indios per la cura delle febbri malariche. Una intera famiglia di composti, (tra i tanti che si possono citare ancora), le cumarine, da cui sono derivati molti farmaci differenziati per attività come vasodilatatori, antibiotici, antinfiammatori, ecc., era nota da millenni nella medicina tradizionale di vari popoli (ad esempio, gli Egizi). Può essere interessante aggiungere che alcune multinazionali farmaceutiche da decenni stanno analizzando i vari rimedi terapeutici delle popolazioni extraeuropee per identificare nuovi principi attivi, da spacciare poi come frutto della sola ricerca scientifica di laboratorio.
La storia dell'aspirina è altrettanto istruttiva: fu per merito di un sacerdote inglese del XVIII secolo se si cominciò a usare, con un certo successo, la polvere della corteccia di salice per curare le febbri. La sua scoperta non derivò da alcun procedimento "scientifico", ma fu il risultato, riconosciuto dallo stesso autore, della applicazione di un antica credenza tradizionale secondo la quale gli ambienti che provocano certe malattie forniscono anche i rimedi naturali per combatterle. Nel caso specifico il riferimento riguarda i luoghi umidi, dove è facile contrarre alcune malattie, ma che al contempo sono favorevoli per la crescita dei salici. Solo successivamente si identificò il principio attivo, l'acido salicilico, la cui attività venne migliorata in un secondo tempo ottenendo un derivato di sintesi, l'acido acetilsalicilico, contenuto nella ben nota aspirina. Si potrebbe ricordare ancora la scoperta del tutto casuale della pennicillina o di altri farmaci, al di fuori di ogni procedura lineare di indagine di laboratorio. Infine è ben noto che, nel nostro continente, la sconfitta delle grandi epidemie, come la peste, fu dovuta non alla medicina, ma a misure di igiene e anche a fatti casuali, come l'immigrazione dall'Asia in Europa del ratto bruno che sostituì il ratto nero, portatore delle pulci che veicolano l'agente patogeno della peste. Tutto ciò precedette di alcuni secoli l'identificazione del bacillo responsabile della malattia e la messa a punto di opportune misure terapeutiche, ormai utili solo in aree dove la cura dell'igiene era molto carente.

Dal canto suo la tecnologia moderna viene definita come l'unione del metodo empirico-utilitaristico con l'astratta oggettività di quello scientifico di laboratorio.

In quegli anni Sermonti inizia a esprimere i suoi rilievi critici nei confronti dell'evoluzionismo darwiniano, di cui smaschera il ruolo di supporto ideologico per il progressismo (gli fornisce un "fondamento naturalistico"), progressismo che costituisce

«il preludio a una immagine uniforme e quindi assolutista del mondo, che rifiuta la variabilità come manifestazione di dissociazione dall'ideale progressista».14

La logica sottostante è quella dell'opportunismo, dell'utilitarismo, dello strumentalismo, dell'adeguamento di convenienza al corso delle cose. L'evoluzionismo, tradotto più o meno correttamente in termini filosofici come sinonimo di progressismo scientificamente fondato e giustificato, era da tempo divenuto un supporto per svuotare di significato ogni valore eterno, ogni principio perenne, per cui supportava (e supporta ancora) l'idea che la morale debba essere semplice figlia del suo tempo e che quindi, in un'epoca dominata e plasmata dalla scienza, è quest'ultima a dover dare i fondamenti etici del vivere dell'uomo. Di fatto costituisce uno strumento di persuasione dello scientismo.

In queste analisi si notano influenze di Eliade, Sombart, Weber, Goethe, Marcel, Zolla, Sedlmayr, Ortega y Gasset, Kerény, Wittgenstein, Nietzsche.
Più avanti troveremo anche altri autori come Guénon, Nasr e Schuon, studiosi di orientamento "tradizionale" il cui rigore nel criticare la modernità è ben noto.

Poi giunge il 1980 ed esce Dopo Darwin, dove la prima parte del volume è opera di Sermonti e la seconda di Roberto Fondi, docente di paleontologia presso l'Università di Siena. È un libro che fece scandalo e smosse le paludose acque del mondo dei biologi italiani. La critica all'evoluzionismo era nettissima, anche se gli Autori differivano su alcune idee quando, dopo aver demolito il castello dei darwinisti si apprestavano a proporre alcune soluzioni alternative.
In particolare Sermonti aveva individuato in due fenomeni, la neotenia e la simbiosi, le forze poste alla base dei processi evolutivi, in luogo delle classiche "selezione naturale" e "mutazioni casuali". Sermonti osa parlare, con accenti platonici, di armonia del mondo, di ordine, di forma come realtà autonoma, di complessità già esistente alle origini della vita contro la misera mitologia del "caso" e della "necessità" onnipotenti, creatori, in una cornice di sfrenato utilitarismo.

L'attacco dei colleghi di ortodossia darwiniana è immediato e violentissimo: non vengono discusse le loro tesi, ma solo condannate senza appello come retrive, reazionarie. I vari Montalenti, Omodeo, Tecce, si lanciano famelicamente sulle "prede". Si giunge a livelli di bassezza inauditi che rivelano motivazioni di ordine ben diverso da quello scientifico. Vengono reclutati quotidiani e periodici compiacenti per una vera e propria crociata laica contro gli infedeli, per bloccare il pericolo di "contagio" di certe idee, "dannose" per la mentalità collettiva. Alcuni agiscono allo scoperto, altri, i peggiori, operano nell'ombra, con calunnie e delazioni vergognose.
Pochissimi sono, tra i non-darwinisti italiani, coloro che hanno il coraggio di riconoscere dei meriti al libro.

Nel 1979 Sermonti aveva sostituito Aldo Spirito alla direzione della Rivista di Biologia15, che da allora diviene uno dei più validi strumenti per discutere, approfondire e diffondere, in ambito specialistico, idee biologiche alternative a quelle egemoni di stampo scientista, meccanista, darwinista: un prezioso strumento di riflessione che ospita contributi di studiosi di varie nazioni (Loevtrup, Sibatani, Webster, Goodwin, Barbieri, Sheldrake, Beloussov, Thom e molti altri).
La rivista diviene anche punto di riferimento centrale del "gruppo di Osaka", dedito agli studi biologici in chiave strutturalista, fondato nel 1985, anno che segna l'inizio di una seconda stagione scientifica di Sermonti, più di carattere teorico, speculativo. In Italia vengono organizzati convegni a Genova, Torino, Siena, Milano, Perugia. È l'occasione per riaprire il dialogo con gli avversari e i critici onesti.

Ne La luna nel bosco riprende il tema dell'evoluzione, focalizzando la sua attenzione su quella dell'uomo, e suggerisce la discendenza delle scimmie dalla linea filetica umana. In tal modo viene capovolto uno dei dogmi del darwinismo, cioè l'origine degli Ominidi da antenati scimmieschi, il che provoca nuove ondate di critiche, ma anche alcune citazioni rispettose. La lettura dei lavori di Sermonti, in particolare Le forme della vita, un titolo che ricorda un bel libro del biologo platonico Adolf Portmann, La forme viventi16, e L'anima scientifica rivelano alcune particolarità interessanti del suo pensiero e della sua concezione del mondo.
Ci riferiamo, ad esempio, alla grande attenzione e al sincero rispetto che egli esprime per gli aspetti "femminili" della realtà, dell'esistenza, cioè per le funzioni, per i simboli, per i significati propri all'"altra metà del cielo" (l'elemento yin del mondo), che egli coglie a vari livelli, da quello biologico, laddove parla della grande importanza dell'eredità citoplasmatica, "materna", a quello del rapporto con la Natura, concepito unicamente in chiave contemplativa, passiva, "femminile", e a quello religioso, con il suo apprezzamento per l'Orfismo, in cui è presente un'impronta "lunare", "demetrica", volendo usare la tipologia di Bachofen, e così via.

L'interesse per la sfera del simbolo e la sensibilità artistica lo spingono ad analizzare l'universo della fiaba a cui dedica alcuni testi, come Fiabe di luna. Simboli lunari nella favola, nel mito, nella scienza, Fiabe del sottosuolo. Analisi chimica delle fiabe di Cappuccetto Rosso, Biancaneve, Cenerentola, Fiabe dei fiori, già citati in precedenza.
In campo letterario, ma con tematiche rigorosamente scientifiche, vanno poi ricordate le sue recenti commedie da tavolo, dedicate a Mendel, Harvey, Darwin, Semmelweiss, Oppenheimer.

Intanto continua l'attività di divulgatore di idee controcorrente trattando su quotidiani e periodici tutti gli argomenti scientifici di rilevanza sociale, dai trapianti alla clonazione, dalla biomedicina all'AIDS, dall'aborto alla denatalità, dal ruolo degli scienziati nella società al problema della razze e del razzismo (di cui dimostra le connessioni con il darwinismo).
Oggi Sermonti ritorna alla teoria dell'evoluzione con un libro, Dimenticare Darwin, da lui definito «una meditazione e una narrazione»17, un testo dove con serenità e garbo smonta uno dopo l'altro alcuni "punti fermi" dell'evoluzionismo darwiniano, osservando al contempo con disincanto e lucidità lo stato di regresso sul piano concettuale, teorico, in cui si trova la biologia contemporanea. Sermonti non si lascia abbagliare dai miti profani, non si illude di fronte alle promesse luccicanti, piene di seduzione, offerte dalla scienza di punta. Così di fronte alla biologia molecolare non si profonde in elogi e non prefigura scenari paradisiaci per il futuro, ma ne dimostra il corto respiro, l'ingannevolezza, il pericolo "riduzionista" insito in essa.

Scrive:

«La rivoluzione molecolare è consistita proprio nella messa in disparte delle osservazioni naturalistiche, nell'esplicito disinteresse per le forme».18

E proprio lungo i sentieri della riflessione sul significato della "forma" a vari livelli, Sermonti ci conduce attraverso le pagine del suo ultimo libro, mostrando l'irrazionalità del darwinismo vecchio e nuovo, che ha dissolto il concetto di organismo, ha ignorato sempre più la complessità radicale e originaria della natura, ha escluso a priori ogni altra dimensione al di fuori di quella meccanicista basata sul DNA e sulle contingenze ambientali.
Il suo discorso non è mai astratto, anzi si arricchisce di continui esempi, aprendo squarci su campi della ricerca messi da parte dai darwinisti perché "imbarazzanti" e ricordandoci che certi presunti "punti fermi" oggi lo sono assai poco (per citarne uno: il fenomeno di selezione di certe farfalle, definito come "melanismo industriale", ormai sempre più in contrasto con i nuovi dati della ricerca, ma ancora usato come esempio di selezione naturale creativa, all'opera sotto gli occhi dell'uomo).

Le forme geometriche, la matematica di Fantappiè, i frattali, costituiscono per il nostro Autore ambiti in cui cercare alcune spiegazioni per svelare, almeno in piccola parte, le leggi che regolano l'armonia del cosmo.

Se osserviamo il tono con cui Sermonti ha scritto Dimenticare Darwin, potremmo affermare che sembra più un pacato racconto di un saggio dall'animo distaccato che un testo di "combattimento", come invece era stato Dopo Darwin, dove egli si sentiva ancora coinvolto in polemiche e contese scientifiche, in cui difendere con ardore le proprie posizioni. Il poeta e il filosofo hanno forse preso il sopravvento sullo scienziato, che però rimane sempre sullo sfondo, con il suo rigore e la sua lucidità.

GIUSEPPE MONASTRA




permalink | inviato da houseofMaedhros il 29/8/2009 alle 18:37 | Leggi i commenti e commenta questo postcommenti (4) | Versione per la stampa


15 maggio 2008

CHATTANDO INTORNO AI MASSIMI SISTEMI

jack silver: senti, ho dato una prima lettura veloce a quello che mi hai mandato,quindi magari non l'ho colta….

Enrico: eh

jack silver: ma ciò premesso, tu sei davvero convinto di aver fatto una vera critica, e non un atto di fede?

Enrico: un atto di fede a chi?

jack silver: al cosiddetto Caso

Enrico: beh sai, in mancanza di prove, è sempre e comunque un atto di fede

quello che vorrei evitare è di fare un salto nel vuoto vertiginoso, perché il salto nel vuoto lo fai in ogni caso, certo vorrei qualcosa che mi convince che cado dal primo piano, piuttosto che dal 30esimo.

io non è che ho fatto una critica dell'ID, c'è poco da criticare. mi dice: è opera di una intelligenza superiore, c'è poco da criticare, tu puoi criticare l'evoluzionismo quanto vuoi perché comunque in modo scomposto tenta di rimanere nei canoni della scienza, introduci un elemento estraneo alla scienza e la critica va a farsi benedire

jack silver: senti, 'sta cosa è incredibile…che NON ci sia un disegno intelligente non è un'ipotesi estranea alla scienza? sono entrambe assunzioni metafisiche, e quindi piantatela con 'sta posa che sarebbe scientifico.

solo che il D.I. ha molto a supporto sotto il mero profilo logico-razionale, al contrario dell'evoluzionismo.

una critica a quest'ultimo, alle presunte prove di scientificità dai suoi sostenitori ciarlatanate, il D.I. la fa, una critica alla critica dovrebbe dire dove quella critica sbaglia, non dire che "c'è poco da criticare" all'ipotesi che c'è un disegno intelligente, c'è poco da criticare pure all'ipotesi che non ci sia, solo che il ragionamento che porta a sostenere che ci sia è molto più logico e probabile, ed è supportato da tutte le mancanze sperimentali che ci dovrebbero essere nel caso fosse vero il contrario

Enrico: logico... non lo so….dice: non ci sono prove che le specie siano evolute da una singola cellula originaria, quindi, con ogni probabilità qualcuno ci ha creato. ma che significa? chi? quando? ma soprattutto chi? questo CHI che ci ha creato dove sta, perché non si è più fatto vedere

jack silver: non è quello il problema, porcaccia miseria infame

a parte che 'sto fatto di non vedere........buttati dalla finestra, e ti ucciderà qualcosa che non vedi

il problema è che le ipotesi sono due: o c'è o non c'è un disegno intelligente, a cosa sia dovuto, chi lo abbia implementato, perché, e tutto il resto, non è argomento di discussione scientifica

ora, visto che prove a sostegno del fatto che non ci sia non ve ne sono, e questo è una prova SCIENTIFICA del contrario, visto anche che le probabilità sono decine di miliardi di volte a favore del fatto che ci sia, viste le leggi della termodinamica, uno conclude a favore del fatto che ci sia, e si ferma lì il discorso scientifico. il fatto che voi tutti reagite di fronte all'ipotesi Dio come il marito che si taglia il pene per far dispetto alla moglie non è una critica, ma una carenza d'affetto, secondo me.

Enrico: negli ultimi 150 anni abbiamo risolto misteri che sembravano appartenere alla sfera del soprannaturale, sia nell'ambito medico che nell'ambito naturale. quindi da persona che crede nella scienza e nelle sue possibilità di risolvere i misteri della vita. io credo che ci sia ancora la possibilità che riusciamo ad avere una risposta con i mezzi che la scienza ci offre e ci offrirà un domani. se questa mi dirà che c'è un disegno di qualcosa/qualcuno mi inchinerò a questo, ma non mi sembra una risposta possibile tra quelle che la scienza può dare, è come il medico che dice: è stato un miracolo

sì ok, definiamolo così, in verità è un modo per dire: è successo qualcosa che io medico, con i mezzi di cui dispongo ora, non riesco a spiegare

Jack silver: …..e poiché non voglio dire che è un miracolo, dico che è dovuto al Caso

Enrico: ma siccome col tempo siamo riusciti a spiegare tanto, tantissimo, e più andiamo avanti e + risposte abbiamo, confido sul fatto che arriverà il giorno in cui avremo una risposta logica (molto + logica, per quanto tu ritenga il contrario, di quella che vede la mano di un Dio dietro la creazione della vita) anche a questo mistero

Jack silver: per la verità, più risposte troviamo, più moltiplichiamo le domande, e confidare è certamente necessario per un atto di fede. quel che è sicuro intanto è che “caso” è solo il nome che date alla vostra ignoranza, un Ente non diverso da Dio se non per il fatto che non lo è, e quindi è più adatto al palato delle magnifiche sorti e progressive, e per il fatto che la sua opera ha probabilità di riuscita esprimibili con 1 su 1seguitodaquarantaquattromilazeri. Dopodiché procedete con il chiamare superstiziosi gli altri….. quando capirete che la scienza è solo un metodo di indagine, guarirete.

Enrico: poi ancora con queste leggi della termodinamica…le leggi della termodinamica conservano la propria valenza in sistemi chiusi, in sistemi aperti le cose non sono così semplici, e non mi aggrapperei a quei principi per scardinare l'evoluzionismo

jack silver: insomma in natura quelle leggi non valgono. Ho bisogno di un cicchetto..….

Enrico: sono sistemi aperti…premetto che io non ne so abbastanza in materia, ma comunque mi lasciano molto scettico, lascia molto scettico l'uso smaliziato di quei principi

jack silver: ma quale uso smaliziato, tu stai dicendo che in natura quelle leggi non valgono.

Enrico: sono principi la cui validità è dimostrata in sistemi chiusi, in sistemi aperti non so se conservano la loro validità o se necessitino di aggiustamenti

jack silver: appunto, non valgono in natura, è così?

Enrico: eh temo di no. poi scusa, sono principi conosciuti alla scienza da decenni, mi sembra strano che oggi li scoprano come qualcosa che da solo demolisce le ragioni dell'evoluzionismo, si sono svegliati adesso?

jack silver: no, più che altro adesso stanno riuscendo a parlare, visto che il Papato evoluzionista avrebbe da insegnare all'Inquisizione

comunque 'sto fatto che in natura le leggi della termodinamica non si applicano è notevole. io non spargerei la voce

Enrico: che vuoi che ti dica, magari tu sei un esperto di termodinamica e di fisica, io non lo sono, ma ricordo che molte leggi della fisica sono applicabili solo a sistemi chiusi, sicuramente i principi della termodinamica, poi se son validi anche ai sistemi aperti non me lo ricordo, magari sì, ma ho dei dubbi, lo vorrei verificare

jack silver: io ti condannerei ad essere chiuso in una stanza e buttare in aria un mazzo di 40 carte, e farti uscire solo quando quelle, cadendo, formino un castello su 3 livelli, cioè qualcosa centinaia di miliardi di ordini di grandezza meno complesso di una singola cellula, e mi dichiaro battuto se ci riesci prima del giudizio universale

Enrico: sì probabilmente siamo in quell'ordine di grandezza, ma Dio in che ordine di grandezza sta?

jack silver: di questo ne devi parlare con lo psicologo, il discorso è un altro

Enrico: eh ma scusa, cerchiamo di mettere le 2 cose sullo stesso piano

jack silver: scusa tu, ne abbiamo già parlato, non è il problema dell'esistenza di Dio o della sua definizione

è il problema che tra due e solo due ipotesi, progetto o caso (i.e. ordine che nasce dal caos) a favore della prima depongono logica, falsificazioni sperimentali della seconda, e leggi naturali (che però non si applicano in natura, come tu insegni)

Enrico: se parliamo di CASO sappiamo tutti e due di cosa parliamo. se parliamo di PROGETTO bisogna che mi fai capire, perché io PROGETTO non lo capisco. mi dici: PROGETTO = Dio, allora capisco. ma non puoi tenermelo nel vago

jack silver: te lo posso chiamare come vuoi

Enrico: non come voglio io, come vuoi tu. altrimenti se ti dico io, chiamiamolo Dio, tu mi dici: no non va bene

jack silver: no, veramente a te non va bene

Enrico: mi va benissimo invece

jack silver: quello che sto dicendo è che non è un problema di nomi

Progetto è comprensibilissimo come Caso, è il suo contrario. chi lo abbia ideato o perché non è oggetto di discussione scientifica, così come gli attributi del Progettista

Enrico: anche sta cosa delle probabilità…….tieni presente che parliamo:

1) di MILIARDI di anni

2) di un UNICO sistema conosciuto nell'universo in cui sia nata vita come la conosciamo

3) che il sistema terra ha subito nei suoi miliardi di anni di vita, mutazioni profondissime tanto che ora l'atmosfera è completamente diversa da quella che era qualche mld di anni fa.

quindi ok, parliamo di ordini di grandezza molto bassi, ma non parliamo proprio di improbabilità

jack silver: no, non bassi, tendenti allo zero, e adorare quel livello di probabilità è pura superstizione

1) i 1) I miliardi di anni che non ti basterebbero per ottenere un solo capitolo sensato buttando a caso 31 caratteri letterali.

2)   2)A rigore, quella mi pare piuttosto una prova a favore del Progetto.

3) sì, e allora?

Enrico: però devi anche spiegarmi perché il DISEGNO ha deciso proprio qui e non su tutti i pianeti, o su un altro pianeta

jack silver: non ti devo spiegare un cazzo. ti ho appena detto che il perché non è oggetto di discussione

Enrico: beh per me lo è

jack silver: sì, perché per voi è questione religiosa, non scientifica

Enrico: perché tra le 2 teorie sono diverse anche per un elemento essenziale: nel caso, non c'è un agente, nel progetto un agente c'è. e io vorrei sapere che cazzo ha in mente sto agente scusa. non è che possiamo dire che c'è e fermarci lì

jack silver: dobbiamo, non possiamo, è una discussione scientifica. per le carenze affettive c'è lo psicologo, che non serve a niente, ma di meglio non c'è

Enrico: non è una discussione scientifica se mi dici: c'è un agente che ha progettato e deciso ma non chiedermi altro

jack silver: ah, lo sarebbe se invece ti dicessi "mo' gli faccio una telefonata e mi faccio dire un paio di cosette". ti dico che è una questione mentale….. e comunque io dico piuttosto che c’è un progetto, un’intelligenza ordinante, per questo e questo e quest’altro motivo; sul Progettista non so niente, né è possibile averne una conoscenza scientifica.

Enrico: se io ti dico: guarda quella persona è guarita perché quell'altra persona gli ha fatto qualcosa, tu mi devi dire cos'ha fatto quest'altra persona e perché. altrimenti io posso pensare che l'intervento dell'altra persona non abbia avuto alcun effetto e il malato sia guarito PER CASO

jack silver: cosa ha fatto lo vedi ogni giorno, il perché non appartiene alla discussione scientifica, i fini sono a questa estranei, ma magari nella scienza nel cui ambito non trovano applicazione naturale le leggi della termodinamica gli appartengono. al limite puoi vedere il come, e tali modalità si rivelano sempre più spaventosamente complesse nel nostro caso.

Enrico: io non vedo niente sei tu che mi devi dire che ciò che vedo devo porlo in diretta relazione alla sua opera

jack silver: se non vedi niente è inutile continuare, non mi piace parlare da solo

Enrico: io vedo, ma ricondurlo a lui non riesco, non è una cosa che mi viene spontanea

jack silver: lo so benissimo, ma è un problema psicologico, ti ripeto

Enrico: non so, non è una cosa che mi tormenta

jack silver: no, tormentate gli altri che non lo hanno

Enrico: ma dai non è vero. anzi, è vero il contrario piuttosto

jack silver: macché, il contrario era vero fino ad un paio di secoli fa in Occidente

Enrico: cmq vorrei sapere anche quante probabilità ci sono che una persona muoia colpita da un corpo estraneo penetrato nell'atmosfera, eppure è capitato.

Devo uscire.

jack silver: enormemente basse, ma miliardi di volte superiori a quelle per cui anche una singola cellula si sviluppi per urti casuali della materia.

Ciao.


14 aprile 2008

I NEMICI DI DARWIN - terza puntata

Nel 1996 in un articolo pubblicato dal biochimico ricercatore universitario Michael Behe sul New York Times, intitolato «Darwin al microscopio», compare per la prima volta l’«eresia» secondo cui esiste una teoria chiamata «progetto intelligente» che spiega meglio della teoria darwiniana l’origine delle complesse macchine molecolari.

Nello stesso anno si tiene alla Biola University di Los Angeles una grande conferenza che riunisce 160 studiosi sostenitori dell’Intelligent Design, che viene considerata il luogo ufficiale di nascita del movimento. Nel marzo e nell’aprile del 2001 due approfonditi e positivi articoli sul disegno intelligente compaiono in prima pagina sul Los Angeles Times e sul New York Times, sancendo l’accettazione e la visibilità pubblica raggiunta dal movimento. È l’inizio di una rivoluzione intellettuale che potrebbe cambiare completamente i paradigmi scientifici esistenti. Ma da dove vengono, e dove vogliono arrivare questi scienziati anticonformisti, che hanno osato sfidare la dominante e apparentemente inespugnabile ortodossia darwinista? A detta di tutti, la miccia che ha innescato questa esplosione è il libro pubblicato nel 1985 dal chimico e medico australiano Michael Denton, il cui titolo dice tutto: Evolution: a Theory in Crisis. Secondo Denton il darwinismo si trova nel bel mezzo di una «crisi», nel senso dato dal filosofo della scienza Thomas Kuhn a questo termine, perché «dal 1859 a oggi non è stato confermato da una sola scoperta empirica», e ha accumulato troppi problemi irrisolti, che non possono più essere ignorati. Vediamo i principali.

Processo al darwinismo
1) L’insostenibilità della generazione spontanea. Per gli evoluzionisti la vita si è sviluppata casualmente dalla materia inorganica, ma la generazione spontanea non è mai stata osservata in natura. Nell’Ottocento Luigi Pasteur dimostrò in via definitiva che i microrganismi non nascono spontaneamente dalla materia, ma solo da altri microrganismi vivi già presenti, e che quindi ogni vivente deriva sempre da un altro vivente. Ma nei libri di testo non si legge anche che nel 1953 lo scienziato Stanley Miller riuscì a ricreare la vita in laboratorio da una mistura chimica simile al brodo primordiale? La verità è ben diversa. Miller riuscì solo a far scaturire un aminoacido, ma per arrivare da questo a una cellula vivente il salto è lunghissimo. Inoltre oggi gli scienziati sono convinti che la mistura di metano e ammoniaca usata per quell’esperimento non corrisponda all’atmosfera primitiva della Terra. Allo stato attuale delle conoscenze scientifiche la nascita della vita organica dalla materia inorganica, lungi dall’essere facilmente ricreabile come voleva dimostrare Miller, rimane un evento così infinitamente improbabile da sembrare miracoloso. Occorre dunque riconoscere che la teoria evoluzionistica sull’origine della vita è una semplice ipotesi, o un atto di fede, ma non certo un fatto.

2) I limiti genetici alla macroevoluzione. Tra le prove addotte a sostegno dell’evoluzione, viene spesso ricordata la resistenza acquisita dei batteri agli antibiotici. Questa però è micro-evoluzione (un piccolo cambiamento interno alla specie), non macro-evoluzione (un passaggio da una specie a un’altra), perché i batteri rimangono sempre batteri e non diventano un altro tipo di organismo. Gli evoluzionisti ipotizzano tuttavia che, su lunghi periodi di tempo, la microevoluzione possa dar luogo a una macroevoluzione. Questa estrapolazione teorica, oltre a non essere mai stata osservata, non si concilia però con ciò che l’uomo conosce da secoli riguardo la selezione artificiale delle piante e degli animali. Sembrano esserci infatti dei limiti genetici che impediscono a una specie di trasformarsi in una specie diversa. I cani ad esempio, pur venendo incrociati dagli allevatori da millenni, spaziano dai chihuahua agli alani, ma sono sempre rimasti cani. Ancor più significativi sono gli esperimenti con i moscerini della frutta, perché la loro breve vita permette di osservare un gran numero di successive generazioni. Tuttavia, malgrado i tentativi di guidarne l’evoluzione, i moscerini della frutta non hanno mai modificato la loro natura. Al massimo è intervenuta qualche variazione, quasi sempre instabile e difettosa. Pare quindi che perfino i tentativi della scienza di manipolare geneticamente le creature verso uno scopo ben definito (l’opposto, si badi bene, del cieco processo darwiniano) incontrino delle barriere invalicabili che rendono impossibile la macroevoluzione.

3) I reperti fossili mancanti. Se la teoria di Darwin è corretta, la terra dovrebbe essere ricolma di reperti fossili appartenenti a organismi intermedi tra una specie e l’altra. Dopo 150 anni di ricerche, tuttavia, la situazione appare molto deprimente per i sostenitori di Darwin. La classica immagine dell’albero darwiniano della vita presente in quasi tutti i manuali di biologia, con i rami che si dipartono da un capostipite comune, non trova infatti corrispondenza con le scoperte della paleontologia. Non solo non sono mai stati ritrovati gli «anelli intermedi» tra una specie e l’altra, ma dai ritrovamenti fossili risulta, al contrario, che le specie viventi siano apparse più o meno simultaneamente, già perfettamente formate, nella grande esplosione di vita del Cambriano, circa 540 milioni di anni fa. Tutte le supposte scoperte di forme transizionali intermedie (come l’Uomo di Piltdown, l’archaeopterix o l’archaeoraptor) si sono rivelate a un più attento esame degli errori di valutazione, se non dei veri e propri falsi costruiti ad arte. Davanti a questi «duri fatti», il famoso scienziato Stephen Jay Gould è stato costretto a riformulare la dottrina dell’evoluzione proponendo la teoria degli equilibri punteggiati, secondo cui l’evoluzione non avverrebbe per piccoli passaggi nel corso di lunghi periodi di tempo, ma con apparizioni improvvise di nuove specie senza transizione, alternate a lunghi periodi di stasi. È dubbio però che questa teoria possa salvare il darwinismo. Molti colleghi di Gould temono che egli possa diventare «il Gorbaciov del darwinismo», perché i suoi tentativi di salvare la teoria evoluzionista rischiano di distruggerla, così come l’ultimo segretario del Pcus ha distrutto il comunismo sperando di riformarlo.

4) L’inesorabile legge dell’entropia. In base alla seconda legge della termodinamica ogni sistema, lasciato a se stesso o al caso, perde energia, degrada e tende al disordine. Questa legge ferrea dell’universo è parte integrante della nostra esperienza quotidiana: senza manutenzione, cioè senza un intervento intelligente dall’esterno, tutte le cose si consumano e vanno in rovina. L’ordine è raro e difficile da ottenere; il disordine, al contrario, è lo stato più probabile. Se prendiamo un mazzo da poker con le carte ordinate per numero e per seme e lo mescoliamo, le carte si mischieranno. Non importa quante volte continueremo a mescolare il mazzo: le carte non torneranno più nell’ordine di prima, a meno che non le rimettiamo pazientemente a posto con un deliberato intervento intelligente. Ebbene, la teoria dell’evoluzione contraddice questa legge, perché presuppone che la natura, lasciata al caso, non tenda verso il caos o il disordine (cioè verso i risultati più probabili), ma evolva verso ordini superiori e complessi, statisticamente più improbabili: dalla materia inorganica alla materia organica, dagli esseri unicellulari a quelli pluricellulari, dagli esseri non intelligenti a quelli intelligenti. Ma una teoria può fare eccezione alla seconda legge della termodinamica? Lo scienziato Arthur Eddington, già ottant’anni fa, era convinto di no, e disse: «La legge dell’entropia detiene, a mio avviso, la posizione suprema tra le leggi della natura. Se una teoria si trova in contrasto con questa legge, non gli do alcuna speranza. Per essa non c’è niente da fare. È destinata a crollare nella maniera più umiliante».

L’“Intelligent Design” come teoria scientifica
È in questa situazione di forte insoddisfazione per il paradigma evoluzionista, e di ribellione al ferreo dogmatismo imposto dai neodarwinisti nei dipartimenti delle università, che verso la metà degli anni Novanta del Novecento prende forma il movimento scientifico dell’Intelligent Design (che in italiano si può tradurre come «disegno intelligente» o, meglio, come «progetto intelligente»). Il suo quartier generale è il Discovery Institute di Seattle, e tra i nomi di spicco si segnalano Michael Behe, David Berlinski, William Dembski, Michael Denton, Guillermo Gonzales, Philip Johnson, Stephen Meyer, Jonathan Wells e numerosi altri. La tesi centrale del progetto intelligente è che il caso e la selezione naturale, le forze che per i darwinisti spingono l’evoluzione, non sono sufficienti a spiegare le caratteristiche degli esseri viventi, la cui complessità si comprende meglio postulando una causa intelligente piuttosto che un processo senza direzione. Il disegno intelligente ripropone dunque, alla luce delle nuove scoperte della scienza e della tecnica, l’argomento classico secondo cui si può desumere l’esistenza di un progetto nell’universo dalle prove fornite dalla natura. Rispetto agli antichi apologeti del disegno intelligente, che avevano a disposizione solo la ragione e l’occhio nudo, oggi gli scienziati hanno il vantaggio di disporre di microscopi e telescopi moderni, che hanno permesso di scoprire delle forme di complessità prima inimmaginabili, come la cellula, la cui struttura organizzativa è immensamente più complicata di quanto si credeva ai tempi di Darwin; o come il Dna, con l’enorme quantità d’informazione che contiene; o come il principio antropico, secondo cui l’universo sembra essere finemente regolato, nei minimi dettagli, per rendere possibile la vita umana sulla terra, e che basterebbe alterare di un soffio una delle tante costanti dell’universo per renderla impossibile. Secondo i sostenitori del disegno intelligente, più l’ordine della vita e dell’universo si mostra complesso, più si indeboliscono statisticamente le probabilità della sua origine casuale, e più aumentano le probabilità di una causa intelligente. Al riguardo è fondamentale il concetto di «complessità irriducibile» elaborato dal biologo molecolare Michael Behe per descrivere quei meccanismi il cui funzionamento dipende dall’interazione di molte parti, e che non funzionerebbero per nulla se solo una di queste parti mancasse. Questi sistemi non possono formarsi per lenta evoluzione perché nelle fasi intermedie non servirebbero a niente, ma devono necessariamente essere progettati e assemblati tutti in una volta, come solo l’intelligenza sa fare. Behe rileva che l’attento studio degli organismi a livello molecolare rivela l’esistenza di numerose macchine «irriducibilmente complesse», i cui processi di formazione non sono stati ancora spiegati in maniera plausibile dalla teoria evoluzionista. Per togliere dignità scientifica a questo genere di argomenti, l’establishment evoluzionista usa la tattica di equiparare il progetto intelligente al creazionismo biblico di matrice fondamentalista. La scienza, secondo la definizione dei darwinisti, dovrebbe limitarsi alle sole spiegazioni materialiste della realtà. Per i fautori del progetto intelligente, invece, dovrebbe essere aperta a tutte le conclusioni cui giunge la ricerca. Se le prove empiriche rendono plausibile l’esistenza di un disegno intelligente nella natura, perché un ricercatore non dovrebbe accettarle? Esaminando un sistema lo scienziato può inferire l’esistenza di un progetto intelligente, ma non può stabilire chi sia il progettista. È possibile immaginarlo come un essere supremo, ma non spetta agli scienziati descriverlo. Non c’è alcun rischio di commistione con la religione, perché la scienza a questo punto si ferma, lasciando il posto alla teologia.

Per chiarire i rapporti tra scienza, religione e progetto intelligente, il matematico William Dembsky ha fatto notare che l’individuazione degli indizi di un intervento intelligente è un’attività comunissima nei campi più disparati: si pensi all’archeologia, quando occorre stabilire se un oggetto ritrovato sia o meno un manufatto; al programma Seti per intercettare segni di intelligenza extraterrestre provenienti dal cosmo; alle investigazioni legali, per stabilire se un determinato evento è stato causato da un fatto naturale o da un’azione dolosa e intelligente; ai brevetti, dove occorre stabilire se si è verificata un’imitazione deliberata o dovuta al caso; all’analisi della falsificazione dei dati; alla crittografia e alla decifrazione dei codici segreti. In genere, davanti a un algoritmo informatico, un geroglifico, un utensile o un disegno sulle pareti di una caverna, l’uomo riesce a individuare in maniera intuitiva la causa intelligente dal tipo di informazione che vi è contenuta. L’Intelligent Design propone un metodo scientifico per scoprire, in maniera rigorosa e matematica, questi segni d’intelligenza nelle cose. A tal fine, Dembsky ha elaborato un «filtro» capace di identificare statisticamente in via generale se un determinato risultato è prodotto dall’intelligenza o dal caso. L’intelligenza lascia infatti dietro di sé la sua firma, quando l’informazione è complessa (cioè non riproducibile fortuitamente) e specifica (cioè corrispondente a un certo schema o modello indipendente). Nella definizione di Dembski, il progetto intelligente è la scienza che studia i segni dell’intelligenza. Ciò che rende questa scienza così controversa è il fatto che intende applicare le sue acquisizioni anche alla biologia, sfidando il veto evoluzionista. Vi sono infatti moltissimi sistemi del mondo naturale che gli evoluzionisti attribuiscono al caso, come l’origine e l’evoluzione della vita, che sono in verità così altamente improbabili da passare il severo filtro statistico proposto da Dembski, e rientrare necessariamente tra quelli progettati da un’intelligenza. Ogni persona sana di mente guardando i volti dei presidenti americani scolpiti sul monte Rushmore li attribuirebbe a una causa intelligente e non all’erosione naturale. Ma allora, se è logico vedere l’intelligenza all’opera in una scultura, come non vederla in un corpo umano infinitamente più complesso? Gli evoluzionisti rifiutano tuttavia di confrontarsi con il progetto intelligente e chiedono ai tribunali di espellerlo dalle scuole in quanto non scientifico. Negli Stati Uniti hanno vinto una prima battaglia nel tribunale di Harrisburg, che nel dicembre 2005, per bocca del giudice federale John E. Jones, ha deciso che l’insegnamento del disegno intelligente nelle scuole viola la separazione tra Stato e Chiesa. La sentenza è tuttavia fortemente criticabile, non solo perché si basa su una concezione laicista del principio di separazione ben lontana dagli intenti originari dei padri fondatori (in una società libera, infatti, i programmi scolastici dovrebbero essere affidati alle scelte del mercato, dei genitori o delle comunità locali, non delle autorità federali), ma anche perché non è compito di un giudice stabilire il carattere più o meno scientifico di una teoria. La questione va dibattuta tra gli scienziati, gli epistemologi e i filosofi della scienza, non dagli avvocati e dai pubblici ministeri nelle aule giudiziarie. Dalla parte opposta, si ribatte che il progetto intelligente è un vero programma di ricerca scientifico, perché non fa mai appello a Dio o all’autorità delle Scritture. A differenza del creazionismo, che parte dal libro della Genesi e cerca di dimostrarne la fondatezza scientifica, il progetto intelligente parte dall’esame dei dati empirici, e da questi inferisce l’esistenza di una causa intelligente responsabile della complessità specifica o irriducibile presente in natura. Le tesi del progetto intelligente, pertanto, sono falsificabili in senso popperiano come quelle di ogni teoria scientifica. Ad esempio, la conclusione secondo cui l’occhio è un organo irriducibilmente complesso, e quindi necessariamente progettato, può essere falsificata dimostrando le modalità precise con cui si è gradualmente formato nel tempo. In alcuni casi, come le indagini sul bioterrorismo, l’Intelligent Design potrebbe rivelarsi un utile strumento scientifico. Supponiamo che in futuro un virus o un batterio mai visto prima provochi un’epidemia mortale su vasta scala. A quel punto sarà importante sapere se il nuovo microrganismo sia sorto casualmente per evoluzione o se sia stato progettato in laboratorio, perché nel secondo caso potrebbe trattarsi di un attacco terroristico con armi biologiche. Chi può risolvere una questione come questa? Non certo i teologi o i filosofi, ma gli scienziati: usando proprio quelle tecniche scientifiche messe a punto dal progetto intelligente per scoprire i segni dell’intelligenza nella natura!

I rischi del materialismo
Nel mondo cattolico le teorie del disegno intelligente sono state accolte con interesse dal cardinale di Vienna Christoph Schönborn, che il 7 luglio 2005 ha pubblicato sul New York Times un articolo critico verso il darwinismo, e a quanto pare anche dallo stesso Papa Benedetto XVI, che nell’omelia della Messa di insediamento ha affermato: «Non siamo il prodotto casuale e senza senso dell’evoluzione. Ciascuno di noi è il frutto di un pensiero di Dio». Altre voci cattoliche, come quella del cardinale Paul Poupard, del gesuita Giuseppe De Rosa o dell’antropologo Fiorenzo Facchini, hanno però mostrato una certa ostilità verso l’Intelligent Design. Il progetto intelligente scuote infatti il tranquillo modus vivendi tra scienza e religione al quale molti si erano abituati. Temendo di essere tacciati di oscurantismo, la maggioranza dei cattolici ha infatti cessato da tempo di criticare le teorie di Darwin sposando una sorta di «teismo evoluzionistico», in base al quale il principio di evoluzione e il principio di creazione convivono su due piani diversi. Secondo questa visione «ecumenica», il disegno di Dio si attuerebbe attraverso le leggi evoluzionistiche della natura. Ci sono però alcuni problemi con il teismo evoluzionistico. In primo luogo, sopravvaluta eccessivamente le prove a favore dell’evoluzione. Una cosa è dire, come nella lettera di Giovanni Paolo II rivolta nel 1996 alla Pontificia Accademia delle Scienze, che la teoria evoluzionista è «più che un’ipotesi»; ma altra cosa è dire, come il biblista Gianfranco Ravasi, che «è ovvio che l’evoluzione esiste, non si possono ignorare i risultati della scienza». In secondo luogo, l’inserimento di Dio all’interno della visione evoluzionistica dà l’impressione di un’aggiunta posticcia e non necessaria, di cui la teoria darwiniana può tranquillamente fare a meno. I cattolici, ovviamente, non potrebbero mai accettare una teoria fondata su presupposti filosofici naturalisti o materialisti, ma è proprio sotto questa veste che la teoria di Darwin compare nei testi di biologia, dove l’evoluzione viene invariabilmente presentata come un processo «cieco», «non guidato» o «privo di direzione». La dottrina evoluzionista ha rappresentato un veicolo fondamentale per la diffusione dell’ateismo e del materialismo, e forse nessuna dottrina è stata capace di allontanare tanta gente dalla fede nel Dio creatore come quella di Darwin. A ragione lo scienziato Richard Dawkins, fervente darwinista, ha potuto affermare che «le teorie di Darwin ci hanno permesso di diventare compiutamente atei». In gioco, dunque, non c’è solo la verità scientifica, ma un’intera visione della realtà. Il dibattito fra il darwinismo e il progetto intelligente è infatti parte di un più ampio conflitto culturale tra coloro che ritengono che nella natura non vi sia alcun progetto morale intrinseco, e coloro che credono che nella natura vi sia un disegno, un ordine morale, che va rispettato. Perché se l’universo è quello descritto dai materialisti, allora l’uomo è interamente determinato dalla natura e quindi privo di libero arbitrio, la vita umana non ha alcun significato ultimo e non esiste alcun fondamento assoluto del bene e del male. Nel Ventesimo secolo i nazionalsocialisti e i comunisti hanno esplicitamente incorporato il darwinismo all’interno della loro ideologia proprio perché, degradando l’uomo al rango di un animale o, peggio, di un oggetto materiale sorto dalla fortuita combinazione di elementi chimici, erano liberi di annientarlo senza impacci d’ordine morale. Oggi, analogamente, i sostenitori della cultura della morte, dell’aborto, dell’eutanasia, dell’eugenetica, degli esperimenti sugli embrioni o della clonazione umana hanno bisogno di un universo che sia compatibile con i propri desideri, nel quale non può esserci posto per alcuna realtà spirituale o sovrannaturale. Un’etica materialista richiede necessariamente un universo materialista. Le guerre culturali sono dunque, in ultima analisi, guerre cosmologiche. Coloro che riusciranno a ricostruire la narrazione più convincente sulle origini dell’universo, della vita e dell’uomo conquisteranno anche la guida morale e culturale della società.
---------------------------------------------------------------------------------------------------------------

E’ corretto addossare a Charles Darwin la responsabilità della diffusione negli Stati Uniti e in Europa, a partire dagli ultimi decenni dell’Ottocento, delle politiche eugenetiche miranti al miglioramento della razza attraverso il divieto dei matrimoni misti, le sterilizzazioni forzate, l’eutanasia per i disabili, fino allo sterminio delle popolazioni “inferiori”?

Chi si permette di porre un simile interrogativo si sente ripetere il ritornello già sentito a proposito di un’altra disastrosa ideologia: non bisogna confondere le buone teorie con le loro cattive applicazioni. Gli interessi di Darwin, ci viene assicurato, erano esclusivamente naturalistici, e i darwinisti sociali che applicarono i meccanismi della selezione alle vicende umane non andrebbero considerati come suoi seguaci, ma come traditori della sua eredità.

E’ lecito tuttavia sollevare qualche dubbio, soprattutto oggi che sui temi bioetica gli evoluzionisti più convinti riscoprono l’eugenetica sotto vesti più progressiste e umanitarie. La lettura de “L’origine dell’uomo” (ed. Studio Tesi, 1991), pubblicato nel 1871, ci presenta infatti un Darwin relativista morale, convinto dell’esistenza di una gerarchia tra le razze umane e favorevole all’eugenetica. In quest’opera Darwin nega l’esistenza della legge naturale su cui si fondava da quasi duemila anni la morale cristiana, e propone un nuovo relativismo morale fondato sull’evoluzione. Le facoltà morali dell’uomo non farebbero parte della sua natura, ma evolverebbero “attraverso la selezione naturale, affiancata dall’abitudine ereditata”. Gli uomini primitivi che avevano sviluppato istinti sociali più forti, come la generosità, la fedeltà e il coraggio, formarono tribù più forti e coese, che eliminarono nella lotta per l’esistenza le tribù con regole morali meno sviluppate: “Una tribù ricca delle qualità suddette doveva ampliarsi e riuscire vittoriosa sulle altre tribù: ma nel corso del tempo doveva, a giudicare dalla storia, essere sopraffatta da altre tribù ancora più dotate. Così le qualità sociali e morali tendevano a progredire lentamente e a diffondersi per il mondo” (pp. 169-170). Questa spiegazione evoluzionistica della morale fornisce una base scientifica al relativismo morale, dato che la coscienza umana, sorgendo accidentalmente dalla selezione naturale, avrebbe potuto evolvere in qualsiasi forma: “Se per esempio, per prendere un caso estremo, gli uomini fossero allevati nelle stesse precise condizioni delle api, non v’è quasi alcun dubbio che le nostre femmine non maritate crederebbero, come le api operaie, loro sacro dovere uccidere i fratelli, e le madri tenterebbero di uccidere le figlie feconde; e nessuno penserebbe a opporsi” (p. 125). L’omicidio e l’infanticidio, sta dicendo Darwin, non possono essere condannati in sé, ma vanno valutati in base alla loro capacità di garantire la sopravvivenza del gruppo.

La brutalità del processo di sopravvivenza del più adatto e la sua mancanza di direzione sembrano però in contraddizione con l’idea che l’evoluzione sia moralmente progressiva. Infatti secondo Darwin le nazioni dell’Europa occidentale, dal punto di vista morale, “superano smisuratamente i loro progenitori selvaggi e sono al vertice della civiltà”, ma questa superiorità dell’uomo civilizzato (che include la simpatia per i propri simili e “il disinteressato amore per tutte le creature … fino agli animali più bassi”) è il prodotto di millenni di lotta per la sopravvivenza, che è lungi dall’essere terminata. Per Darwin anche il progresso morale, paradossalmente, richiede la distruzione delle razze “meno adatte” da parte di quelle più avanzate: “L’uomo, come tutti gli altri animali, ha senza dubbio progredito fino alla sua condizione attuale a opera della lotta per l’esistenza, frutto del suo rapido moltiplicarsi; e, se egli deve progredire ed elevarsi ancora di più, deve rimanere soggetto a una dura lotta” (p. 270). Tra gli intellettuali che esaltavano la guerra come “igiene del mondo”, questo tema ebbe una grande popolarità negli anni che precedettero la Prima guerra mondiale.

Nell’“Origine della specie” (1859) Darwin aveva spiegato che in natura la lotta per la sopravvivenza avviene tra le specie più simili: nell’“Origine” dell’uomo applica questa idea alla storia evolutiva dell’uomo, plaudendo alla necessaria e benefica estinzione delle razze meno favorite: “In un tempo avvenire, non molto lontano se misurato in secoli, le razze umane civili stermineranno e si sostituiranno in tutto il mondo alle razze selvagge. Nello stesso tempo le scimmie antropomorfe saranno senza dubbio sterminate. La lacuna tra l’uomo e i suoi più prossimi affini sarà allora più larga, perché invece di essere interposta tra il negro dell’Australia e il gorilla, sarà tra l’uomo in uno stato, speriamo, ancor più civile degli europei, e le scimmie inferiori come il babbuino” (p. 207). Il senso è chiaro: grazie alla selezione naturale la razza europea emergerà come distinta specie di homo sapiens, mentre le forme intermedie (lo scimpanzè, il gorilla, l’aborigeno australiano e il negro africano) si estingueranno.

La selezione naturale però non opera solo tra le razze, ma anche tra gli individui della stessa razza, e qui entra in scena l’eugenetica. Darwin osserva (una lamentela ripresa poi da eugenisti come Francio Galton ed Ernst Haeckel) che l’uomo civilizzato, malgrado la sua superiorità, ha uno svantaggio rispetto al selvaggio: “Fra i selvaggi i deboli di corpo e di mente vengono presto eliminati; e quelli che sopravvivono godono in genere di un ottimo stato di salute. D’altra parte, noi uomini civili cerchiamo con ogni mezzo di ostacolare il processo di eliminazione; costruiamo ricoveri per gli incapaci, per gli storpi e per i malati; facciamo leggi per i poveri; e i nostri medici usano la loro massima abilità per salvare la vita di chiunque fino all’ultimo momento. Vi è ragione di credere che la vaccinazione abbia salvato migliaia di persone, che in passato sarebbero morte di vaiolo a causa della loro debole costituzione. Così i membri deboli della società civile si riproducono. Chiunque sia interessato dell’allevamento di animali domestici non dubiterà che questo fatto sia molto dannoso alla razza umana. E’ sorprendente come spesso la mancanza di cure o le cure mal dirette portano alla degenerazione di una razza domestica: ma, eccettuato il caso dell’uomo stesso, difficilmente qualcuno è tanto ignorante da far riprodurre i propri animali peggiori … Dobbiamo perciò sopportare gli effetti indubbiamente deleteri della sopravvivenza dei deboli e della propagazione delle loro stirpe” (pp. 175-176). Tutto questo, per inciso, detto da un uomo che fu cagionevole di salute, e che ebbe figli tutti ugualmente fragili.

Alla fine del libro Darwin espone apertamente le sue proposte di politica eugenetica: “Se i vari ostacoli di cui abbiamo parlato … impediscono agli irrequieti, ai viziosi e agli altri elementi inferiori della società di accrescersi più rapidamente del gruppo di uomini migliori, la nazione regredirà, come è accaduto spesso nella storia del mondo” (p. 184). “L’uomo - continua Darwin – ricerca con cura il carattere e la genealogia dei suoi cavalli, del suo bestiame e dei suoi cani, prima di accoppiarli; ma quando si tratta del suo proprio matrimonio, di rado, o quasi mai, si prende tutta questa briga … Eppure l’uomo potrebbe mediante la selezione fare qualcosa non solo per la costituzione somatica dei suoi figli, ma anche per le loro qualità intellettuali e morali … D’altra parte, se i prudenti si astengono dal matrimonio, mentre gli avventati si sposano, i membri inferiori della società tenderanno a soppiantare i migliori”. “I due sessi - conclude Darwin – dovrebbero star lontani dal matrimonio, quando sono deboli di mente e di corpo; ma queste speranze sono utopie, e non si realizzeranno mai, neppure in parte, finché le leggi dell’ereditarietà non saranno completamente conosciute. Chiunque coopererà a questo intento, renderà un buon servigio all’umanità” (p. 269). Darwin propone la teoria, del tutto indimostrata, secondo cui i figli dei “non adatti” sarebbero anch’essi “non adatti”, negando così ogni importanza ai fattori ambientali, culturali e alle scelte personali.

Contrariamente a quanto sostiene la vulgata, perciò, ne “L’Origine dell’uomo” sono esposte tutte le tesi principali del darwinismo sociale e dell’eugenetica. Aderendo a questa nuova concezione materialista dell’uomo, ridotto a pura entità biologica, l’occidente ha preso una china rovinosa e ha generato quella cultura di morte con cui dobbiamo ancora oggi fare i conti.
-------------------------------------------------------------------------------------------------------------

La clamorosa abiura dell’ateismo da parte di uno dei suoi esponenti più famosi, il filosofo Anthony Flew, raccontata e descrita sulle pagine del Dom da Philip Larrey, ha suscitato scalpore all’interno della comunità scientifica perché a fargli cambiare idea non è stata un’improvvisa illuminazione religiosa o una nuova argomentazione filosofica, ma le sempre più convincenti prove empiriche che sembrano dimostrare, per l’estrema complessità dell’universo e dei modi in cui si è formata la vita, il coinvolgimento di un’intelligenza superiore.

Flew ha cioè fatto proprio il “creazionismo scientifico” che il movimento dell’“Intelligent Design” (“disegno intelligente”) ha iniziato a far circolare con successo sulla scena pubblica statunitense a partire dalla metà degli anni Novanta del secolo scorso. La tesi centrale del “disegno intelligente” è che il caso e la selezione naturale, le forze che per i darwinisti spingono l’evoluzione, non sono sufficienti a spiegare le caratteristiche degli esseri viventi, la cui complessità si comprende meglio postulando una causa intelligente piuttosto che un processo senza direzione.

Questa rivolta contro le dominanti teorie evoluzioniste, nata all’interno del mondo scientifico, ha la sua data di origine nel 1985, anno di pubblicazione del libro Evolution: a Theory in Crisis di Michael Denton. Secondo questo chimico e medico australiano, la teoria evoluzionista aveva accumulato troppi problemi irrisolti che non si potevano più ignorare. Denton elencava in maniera dettagliata più di venti organi esistenti in natura, a partire dal polmone degli uccelli, che non avrebbero mai potuto formarsi a poco a poco, per numerose, successive e piccole modificazioni, perché nella forma intermedia non avrebbero funzionato.
La conclusione del libro era perentoria: la teoria darwiniana della macroevoluzione, che dovrebbe spiegare il passaggio da una specie all’altra, «dal 1859 a oggi non è stata confermata da una sola scoperta empirica ». In queste condizioni, avvertiva Denton, il paradigma scientifico del darwinismo era destinato a entrare presto in crisi.

Uomini e topi, e scienziati
Denton si considerava peraltro agnostico e non proponeva una teoria alternativa al darwinismo. Il suo libro si rivelò tuttavia decisivo nella nascita dell’“Intelligent Design” perché aveva un’impostazione scientifica molto più rigorosa del tradizionale creazionismo biblico. Anche l’attuale leader del movimento del “disegno intelligente”, il docente di Diritto dell’università californiana di Berkeley Philip Johnson, ha affermato di essersi «risvegliato dal sonno dogmatico» proprio grazie alla lettura di questo libro. La storia della conversione di Johnson è singolare: nel 1987, osservando la vetrina di una libreria scientifica di Londra, nota due libri affiancati, The Blind Watchmaker di Richard Dawkins – il più famoso sostenitore del darwinismo – ed Evolution: A Theory in Crisis di Denton. Li acquista entrambi e li legge senza interruzione la sera stessa. Alla fine le argomentazioni di Dawkins l’avevano lasciato perplesso, ma la critica di Denton gli era apparsa irresistibile.

Non essendo uno scienziato, Johnson decide che da quel momento avrebbe studiato quanto più poteva l’argomento. Negli anni successivi, terminato il periodo di preparazione, organizza dunque una serie di convegni in ambito universitario e s’impegna personalmente in decine di dibattiti pubblici con i maggiori campioni dell’evoluzionismo (come Stephen Jay Gould), mettendo le proprie notevoli capacità logiche e dialettiche, allenate in decenni di pratica giudiziaria, al servizio della critica al darwinismo.
Nel 1991 pubblica un libro che diventa una pietra miliare del movimento, Darwin On Trial, nel quale accusa i darwinisti di fondare le proprie teorie non su prove scientifiche, che anzi le smentirebbero, ma su una filosofia metafisica a priori, il materialismo. Il darwinismo, secondo Johnson, svolge infatti il ruolo di mito fondante della cultura moderna; funziona cioè come un dogma religioso che tutti debbono accettare come vero, piuttosto che come una ipotesi scientifica da sottomettere a test rigorosi.

L’attività di Johnson apre così la strada alle intuizioni di alcuni scienziati creativi che nella seconda metà degli anni Novanta sviluppano esplicitamente, in maniera costruttiva e positiva, una teoria a favore del “disegno intelligente”. Nel 1996 in un articolo pubblicato dal biochimico Michael Behe su The New York Times, intitolato (in traduzione) “Darwin al microscopio”, compare per la prima volta – tutto verrà poi sviluppato e approfondito nel libro Darwin’s Black Box. The Biochemical Challenge to Evolution – l’“eresia” secondo cui esisterebbe una teoria chiamata “disegno intelligente” in grado di spiegare meglio del darwinismo la formazione di tanti meccanismi molecolari “irriducibilmente complessi”, quali per esempio le funzioni della cellula o la coagulazione del sangue.

Il concetto di “complessità irriducibile” viene elaborato da Behe per descrivere quei meccanismi il cui funzionamento dipende dall’interazione di molte parti. Questi sistemi non possono formarsi per lenta evoluzione, ma debbono necessariamente essere progettati e assemblati tutti in una volta, come solo l’intelligenza sa fare. Per spiegare il concetto in termini comprensibili, Behe fa l’esempio della trappola per topi, che è composta da cinque parti e che non potrebbe funzionare se anche solo una di queste venisse rimossa. La stessa cellula è infinitamente più complessa di quanto si poteva ipotizzare ai tempi di Charles Darwin.
La credibilità di Behe come scienziato dà al suo libro un grande successo (45mila copie vendute in un anno e centinaia di recensioni) e fa di lui il personaggio più in vista del movimento. I darwinisti lo accusano però di aver mischiato le proprie convinzioni cattoliche con la scienza. Ma per quale motivo, si chiede Behe, bisogna limitare l’oggetto della scienza alle sole spiegazioni materialiste, anche quando la ricerca conduce a spiegazioni diverse?

Se le prove empiriche rendono plausibile l’esistenza di un “progetto intelligente” nella natura, perché un ricercatore non dovrebbe accettarle? Esaminando un sistema, spiega Behe, lo scienziato può inferire l’esistenza di un “disegno intelligente”, ma non può stabilire chi sia il progettista. È possibile immaginarlo come un essere supremo, ma non spetta agli scienziati descriverlo. La scienza a questo punto deve fermarsi, lasciando il posto alla teologia.

Il filtro di William Dembsky
Un importante contributo alla questione del rapporto tra religione, scienza e “disegno intelligente” viene dunque sviluppato dal matematico William Dembsky nel libro Mere Creation del 1997, che raccoglie gl’interventi del convegno svoltosi nel novembre 1996 alla Biola University di Los Angeles, vero punto di svolta per l’intero movimento.
Dembsky osserva che in altri campi l’individuazione degl’indizi di un intervento intelligente è un’attività comunissima: si pensi all’archeologia, quando occorre stabilire se un oggetto ritrovato sia o meno un manufatto; al programma SETI per intercettare eventuali segni d’intelligenza extraterrestre provenienti dal cosmo; alle investigazioni legali per stabilire se un determinato evento sia stato causato da un fatto naturale o da un’azione dolosa e intenzionale; ai brevetti, dove occorre stabilire se si è verificata un’imitazione deliberata o dovuta al caso; all’analisi della falsificazione dei dati; alla crittografia e alla decifrazione dei codici segreti.

Nell’esperienza comune, infatti, la presenza d’informazioni viene sempre associata all’intelligenza, che si tratti di un algoritmo informatico, di un geroglifico, di un utensile o di un disegno tracciato sulle pareti di una caverna. Per Dembsky non c’è ragione per non applicare queste stesse tecniche anche alle scienze naturali, onde spiegare per esempio l’enorme quantità d’informazioni presente nel DNA come il prodotto di un “disegno intelligente”.
Dembsky propone infatti un “filtro” capace d’identificare statisticamente in via generale se un determinato risultato è prodotto dall’intelligenza oppure dal caso. A un primo livello si verifica se l’evento è altamente probabile, e in questo caso lo si può attribuire a cause naturali escludendo fin da subito che sia stato progettato. A un secondo livello, il filtro stabilisce se l’evento è solo mediamente improbabile (per esempio, una scala reale nel poker): anche in questa ipotesi il caso è una spiegazione sufficiente.

Al terzo livello del filtro rimangono solo i risultati altamente improbabili, ma anche in questi casi non li si può classificare subito come progettati. Debbono infatti anche essere “specifici”, ovvero debbono conformarsi a un determinato schema identificabile. Così, per esempio, se per cinque volte consecutive durante una partita di poker capita una scala reale alla stessa persona, è più razionale attribuire questi esiti non alla fortuna, ma alla deliberata azione di un baro.

Vi sono però moltissimi sistemi del mondo naturale che gli evoluzionisti attribuiscono al caso, come l’origine e l’evoluzione della vita, che sono in verità così altamente improbabili da passare questo severo test statistico e rientrare necessariamente tra quelli progettati da un’intelligenza. Ogni persona sana di mente, osserva Dembsky, guardando i volti dei presidenti degli Stati Uniti scolpiti sul famoso monte Rushmore, li attribuirebbe a una causa intelligente e non all’erosione naturale. Ma allora, se è logico vedere l’intelligenza all’opera in una scultura, come non vederla in un corpo umano infinitamente più complesso?

Le icone di Jonathan Wells
Un altro duro colpo all’ortodossia evoluzionista è poi arrivato dallo scienziato “iconoclasta” Jonathan Wells, il quale, per mettere in luce l’approccio dogmatico e fideistico con cui il darwinismo viene insegnato nelle scuole, ha denunciato, nel libro The Icons of Evolution (uscito nel 2000), le inaccuratezze scientifiche, se non le vere e proprie frodi, che riempiono i più diffusi manuali di biologia.
Le “icone” dell’evoluzione sarebbero quelle quattro immagini ormai classiche che da decenni continuano a essere riproposte nei testi degli studenti per illustrare le “conquiste scientifiche” del darwinismo: l’esperimento di Stanley Miller sull’origine della vita, l’albero della vita darwiniano, gli embrioni di Ernst Haeckel e l’archaeopterix, cioè il presunto anello di congiunzione tra i rettili e gli uccelli.

Malgrado la scienza abbia da tempo negato ogni loro validità, queste proverbiali quattro immagini continuano a essere proposte come se nulla fosse. Non è vero infatti che nel 1953 Miller riuscì a ricreare la vita in laboratorio da una mistura chimica simile al brodo primordiale: riuscì solo a far scaturire un aminoacido, ma per arrivare da questo a una cellula vivente il salto è lunghissimo. Anche l’immagine dell’albero darwiniano della vita, con i rami che si dipartono da un capostipite comune, non ha nessuna corrispondenza con le scoperte della paleontologia, dato che non sono mai stati ritrovati gli “anelli intermedi” tra una specie e l’altra. Dai ritrovamenti fossili, al contrario, sembra che le specie viventi siano apparse più o meno simultaneamente, già perfettamente formate, nella grande esplosione di vita del Cambriano, circa 540 milioni di anni fa. E l’archaeopterix, come si è scoperto, non era affatto mezzo rettile e mezzo uccello: non era nemmeno il progenitore degli attuali uccelli, era solo il membro di un gruppo di uccelli totalmente estinto.

La presenza nei libri di testo dei disegni degli embrioni di Haeckel (uno dei padri fondatori dell’eugenetica, morto nel 1919) è però ancora più grave, trattandosi di una frode conclamata. L’obiettivo di Haeckel, mostrando la rassomiglianza tra diverse specie nelle prime fasi di vita, era quello di dimostrare l’origine comune di tutti i viventi, come se lo sviluppo dell’embrione riproducesse il meccanismo generale dell’evoluzione da uno stadio indifferenziato verso stadi differenziati. Peccato però che Haeckel avesse alterato di proposito i disegni degli embrioni e che avesse scelto degli esempi di comodo, oltretutto non riguardanti i primi stadi di vita.

Oggi i biologi sanno bene come gli embrioni delle varie specie all’inizio non si somiglino affatto tra loro. Per Wells una frode di questo genere, per altro ben risaputa, rappresenta l’equivalente accademico di un omicidio ed è altamente rappresentativa dei metodi sleali che l’establishment evoluzionista è disposto ad adottare per difendere le proprie teorie. Oggi, insomma, i fautori del “disegno intelligente” si sentono dei rivoluzionari intenzionati a trasformare il modo in cui l’origine della vita viene insegnata nelle scuole, nelle università e nei programmi televisivi, e affermano di voler combattere in nome della libertà di pensiero: non cioè per cancellare l’evoluzionismo dai programmi scolastici, ma per farlo studiare di più, approfondendone anche i punti deboli e le teorie alternative.
Per l’ortodossia darwinista sono avversari molto più pericolosi dei creazionisti biblici, perché grazie alle loro eccellenti credenziali accademiche hanno reso per la prima volta la critica antievoluzionista intellettualmente rispettabile.

Guglielmo Piombini


                         T H E      S U R V I V A L     O F      T H E      F A K E S T


11 aprile 2008

I NEMICI DI DARWIN - seconda puntata

Stephen Meyer ha l’aria del grande comunicatore, l’aplomb dello scienziato affascinante e convincente che può dominare un talk show e uscirne come l’alfiere di un pensiero nuovo e positivo. E’ uno di quelli, rari, che davvero convincono la gente a chiedersi: “Perché diavolo non ci avevo mai pensato prima?”.

Meyer, filosofo della scienza e teologo, è con Bruce Chapman e George Gilder il fondatore del Discovery Institute e il titolare del Center for Science and Culture, il think tank che promuove e diffonde le tesi dell’Intelligent Design come rivoluzionaria teoria delle origini della vita e che mette in discussione il neodarwinismo. Nelle radici culturali di Meyer c’è l’apologetica cristiana di C.S. Lewis, c’è la strategia del cuneo da infiltrare nelle maglie del materialismo, introdotta da Philip Johnson. Ma c’è anche l’adeguamento ai linguaggi moderni della comunicazione e della persuasione, prendendo le distanze dalle rigidità del creazionismo ed esponendo un atteggiamento conciliatorio, nel quale ansia di scientificità e desiderio di trascendenza provano a incontrarsi anziché a scontrarsi. Stephen Meyer è la faccia giusta dell’ID allorché prova a misurarsi con una società postmoderna e venata di influssi hollywoodiani come l’America metropolitana, lontano dai sospettosi torpori della provincia. Grazie a lui il Discovery Institute sopravvive sui finanziamenti del multimiliardario in odore di fondamentalismo Howard Ahmanson, che gli ha affidato il figlio per educarlo al sapere scientifico. E’ lo stesso Meyer a rievocare il giorno in cui Ahmanson gli disse: “Cosa sapresti fare se qualcuno ti fornisse il giusto sostegno economico?”. Il biondo, avvenente Meyer ha saputo certamente far fruttare l’investimento.

* * *

Dottor Meyer, mi dà la sua definizione di ID?
“L’Intelligent Design è una teoria scientifica basata su prove, secondo la quale alcune funzioni di sistemi viventi possono essere meglio spiegate attraverso una causa intelligente, che attraverso un processo spontaneo come la selezione naturale. Le principali scoperte che ci hanno condotto a queste conclusioni sono le piccole macchine miniaturizzate dotate di motore rotante, individuate all’interno della cellula: autentica nanotecnologia. L’altro elemento che ha condotto i nostri scienziati alla conclusione che la vita sia frutto di un progetto è il codice digitale a quattro caratteri incaricato di veicolare le informazioni e immagazzinato nel Dna. Qui siamo a Seattle e la persona più famosa in città è Bill Gates. Bill dice che il Dna somiglia a un software, ma è molto più complesso di qualsiasi programma mai creato fino a oggi. Ebbene: Gates usa dei programmatori per scrivere i suoi codici software. E la presenza di un software, o di qualcosa che funziona come un software all’interno delle cellule degli esseri viventi, punta dritto in direzione dell’esistenza di un disegno preordinato”.

Il testimonial più ricorrente della vostra teoria è il batterio flagellum. E’ un caso unico o solo un esempio di una vasta serie di fenomeni equiparabili?
“Il motore del flagellum è diventato famoso grazie a Michael Behe e al suo libro “Darwin Black Box”. E’ un meccanismo straordinario costituito da una serie di elementi attivi e ha l’aspetto di un motore assemblato da una catena di montaggio su scala infinitesimale, pari alla miliardesima parte di un metro. La sua funzione è spostare il piccolo batterio nel liquido ed è dotato anche di un circuito di trasmissione e ricezione dei segnali, a sua volta irriducibilmente complesso. A me piace dire che incarna un’altissima tecnologia in una vita di stadio bassissimo. Ma il motore del flagellum è solo uno dei tanti esempi di macchinari e circuiti cellulari dotate della proprietà che Behe ha chiamato dell’“irriducibile complessità”, consistente in un sistema di parti integrate che funzionano coordinandosi tra loro, in modo che la perdita anche di una sola delle parti provoca il non funzionamento dell’insieme. Abbiamo macchine che producono energia o abbiamo una macchina che controlla il flusso delle informazioni, situata nel nucleo della cellula, che si attiva con lo stesso principio grazie al quale in un albergo apri la porta della stanza con una chiave digitale, ovvero attraverso un sofisticato meccanismo di riconoscimento delle informazioni. Abbiamo macchine copiatrici delle informazioni genetiche sulla catena del Dna. E, più impressionante di qualsiasi esempio, abbiamo questo sorprendente patrimonio di informazioni genetiche immagazzinate tramite un codice digitale a quattro lettere che funziona esattamente come la programmazione di un software. Nei software si utilizza il codice binario, 0/1, nel sistema genetico il codice ha quattro lettere, che noi chiamiamo A/T/G/C: un vero sistema informativo, nanotecnologia nella cellula. Ai tempi di Darwin la cellula era vista come un organismo semplice. Thomas Huxley, il biologo collega di Darwin, diceva che la cellula era un globo di protoplasma indifferenziato, una specie di gelatina. Ma adesso sappiamo che è piena di tecnologia, per molti versi simile a quella che noi consideriamo una “nostra” tecnologia sofisticata”.

Tutto ciò che affermate sembra suffragato da prove. Perchè le vostre teorie ricevono accoglienze così brutali?
“Le cose che stiamo scoprendo nella cellula, se fossero scoperte in qualsiasi altro campo dell’esperienza umana, condurrebbero immediatamente alla conclusione che un agente intelligente, un progettista, ne è responsabile. Ma le nostre teorie provocano polemiche, perchè quando si parla dell’origine della prima forma di vita, gli esseri umani vogliono sapere chi ha disegnato tutto ciò. Perciò queste scoperte sollevano grandi interrogativi sull’identità del disegnatore e toccano questioni filosofiche e religiose assai delicate per gli scienziati, abituati come sono a pensare che la scienza si esprima sul mondo in chiave agnostica, atea e materialistica. L’idea che la scienza possa guardare in una direzione diversa suona minacciosa a quelli che associano meccanicamente la scienza al pensiero materialista”.

Come si è avvicinato all’ID?
“Ho studiato geofisica, specializzandomi in tecnologia di ricerca del petrolio. Nell’85 ho assistito a una conferenza sull’origine della vita a cui partecipava il biologo Dean Kenyon, che sosteneva che le informazioni contenute nel Dna indicavano la presenza di una causa primigenia intelligente, di un codificatore, se vogliamo dire così. Kenyon e soci si confrontavano coi teorici delle reazioni chimiche nel brodo primordiale e mi è sembrato subito chiaro che i loro argomenti fossero migliori. Ho approfondito l’argomento durante la specializzazione in Filosofia della Scienza a Cambridge e ho capito che le ipotesi dell’ID erano una risposta alla domanda storica: cosa ha fatto nascere la vita? Ho studiato le teorie di Darwin e quelle di uno dei suoi principali ispiratori, il geologo Charles Lyell che aveva messo a punto un metodo di ricerca scientifica basata sull’idea che cercando di ricostruire il passato non bisogna inventare cause stravaganti che non ci è possibile osservare, bensì individuare cause sulla base di effetti rilevabili anche oggi. Lyell diceva: “Bisogna ricostruire il passato su cause visibilmente in atto al presente”. A quel punto mi sono domandato: quali sono le cause rilevabili alla base delle informazioni oggi riproducibili attraverso l’esperienza? La mia conclusione è stata che c’era una sola causa possibile: l’intelligenza. Ironicamente, attraverso lo stesso metodo usato da Darwin e da Lyell, sono arrivato alla conclusione che la verificabilità della teoria del disegno intelligente in base alle informazioni presenti nel Dna era possibile e che un notevole sostegno arrivava dalle scoperte nel campo della biologia molecolare.

Questo per lei non significa un rifiuto assoluto dell’evoluzione?
“Quando noi ci battiamo in favore dell’ID non combattiamo l’evoluzione in se stessa. Evoluzione significa molte cose: significa cambiamento nel corso del tempo, o significa condivisione delle ascendenze. Noi certo non rifiutiamo queste interpretazioni dell’evoluzione. Personalmente sono scettico sul fatto che tutti gli organismi siano accomunati da una medesima origine, ma questo non ha a che vedere col mio sostegno alla teoria dell’ID. Ho studiato l’esplosione del Cambriano abbastanza da capire che in essa sono presenti diversi alberi della vita “interrotti” che impediscono di credere che all’origine del tutto vada posto un singolo albero della vita. L’ID non mette in discussione l’evoluzione come cambiamento nel corso del tempo, ma il principio che il cambiamento nel tempo sia stato casuale, senza un’intelligenza a fungere da guida. Richard Dawkins, l’alfiere del moderno darwinismo, dice che la biologia è lo studio di cose complesse apparentemente progettate con uno scopo e la parola chiave secondo lui è proprio quell’“apparentemente”. Secondo Dawkins la vita non sottostà a un progetto ma dà soltanto l’impressione di sottostare a un progetto. Questo è il pensiero che noi sfidiamo. La teoria dell’ID dice l’opposto: la vita non dà la sensazione d’essere stata progettata, ma è stata progettata da una reale intelligenza e non da un processo casuale che imita i procedimenti di un disegno intelligente. Perciò, quando noi ci battiamo contro l’evoluzione lo facciamo contro lo specifico darwinista che sostiene che la vita nasca da un processo casuale e non da un progetto intelligente”.

A un certo punto però dovete confrontarvi col problema dell’identità dell’agente intelligente. Voi vi fermate sul limitare della domanda, ma la gente non può accettarlo. Vuole la risposta definitiva.
“Certo, è inevitabile. Ma due questioni vanno prese in considerazione. La prima sono le prove scientifiche e ciò che mostrano. La seconda sono le implicazioni legate a queste prove scientifiche. I media americani hanno sempre affrontato in modo sbagliato questo punto, asserendo che l’ID sia basato sulla religione. Invece l’ID è basato su prove scientifiche. Ma la direzione verso cui queste prove puntano è quella di interrogativi filosofici e religiosi ben più ampi: chi è il designer? Noi sappiamo che la domanda è essenziale, ma ragionando scientificamente la identifichiamo come una “domanda di secondo ordine”. Perchè l’identità del designer è una questione religiosa e filosofica. La mia personale conclusione è che il designer è Dio. Le prove che abbiamo conducono a un designer molto più acuto di noi e, se le osserviamo dal punto di vista fisico, a qualcuno che era qui prima di noi. Ci sono prove biologiche e fisiche che portano a un progetto che va oltre le dimensioni del tempo e dello spazio, per come le conosciamo. E ciò sostiene la natura teistica del progetto e si accorda con la visione di Dio come designer. Ma questa resta comunque un’implicazione del lavoro scientifico, qualcosa a cui arrivare attraverso il ragionamento filosofico, non escludendo che altri sostenitori dell’ID arrivino a conclusioni diverse. Qui non siamo tutti teisti, non crediamo tutti in Dio. Anche se io credo”.

C’è chi sostiene che ridurre Dio a un progettista sia riduttivo.
“Certo. La sua natura di progettista discende soltanto dalle cose che possono essere viste in natura e dalle prove colte nel Dna, nelle macchine presenti nelle cellule e anche nella moderna cosmologia che ritengo contempli implicazioni teistiche. Ma questo è quanto puoi vedere di Dio nella Natura. Io poi ho una mia personale relazione con Dio, prego Dio e ho altri modi per conoscerlo e avvicinarlo”.

Nel suo lavoro scientifico ha sempre tenuto fuori della porta le implicazioni religiose?
“Il lavoro dell’ID riguarda sempre e solo le prove scientifiche. Dobbiamo rispondere alla domanda: com’è nata la vita? All’inizio ho accettato l’ipotesi evoluzionista sulle origini. Ma quando mi sono dovuto confrontare con le prove di sofisticate nanotecnologie nella cellula, con le informazioni contenute nel Dna, col problema di dimostrare le origini della vita senza avallare un disegno intelligente ma sostenendo che la Natura abbia costruito macchine così sofisticate e che le molecole sono capaci di processare informazioni a livelli da ipercomputer, a quel punto ho capito l’insostenibilità di queste tesi”.

Gli scienziati evoluzionisti, presentano la questione in termini diversi. Prendiamo la complessità dell’occhio. Secondo loro tutto è spiegabile risalendo per l’albero dell’evoluzione, fino ai primi fotoni sensibili alla luce.
“Quando ho capito come Darwin spiegava la genesi dell’occhio, in base ai meccanismi della selezione e delle variazioni casuali, avevo voglia di gridare allo scandalo. Oggi Richard Dawkins presenta alcune ipotesi basate sulla sensibilità delle cellule alla luce e sui graduali avanzamenti di un organismo di questo genere. Michael Behe si è confrontato con queste ipotesi e ha detto: bene, partiamo dagli spot sensibili alla luce. Nell’idea darwinista si può costruire qualcosa di complesso partendo da qualcosa di semplice, immaginando una serie di fasi intermedie che apportano miglioramenti funzionali all’organismo. Behe recide l’argomento alla radice dicendo che pensare che quegli organismi siano semplici è l’errore di partenza: i fotoni sono organismi già estremamente sofisticati e integrati. E questo perchè un’enorme complessità è già presente fin dagli inizi: in quel caso ci sono 11 proteine separate che formano il circuito chiamato “sequenza della visione” e ciascuna di quelle proteine deve essere esattamente in quel posto e possedere dimensioni esatte e relazioni prestabilite con le altre proteine. Cose che diamo per scontate, come l’occhio, risultano estremamente complesse a livello biochimico, come macchine sofisticate nelle quali ogni pezzo è funzionalmente integrato e il malfunzionamento di un singolo pezzo comporta il collasso dell’intero meccanismo. Credo che Behe abbia scompaginato le teorie di Dawkins”.

Mi presenta la sua teoria sulla esplosione del Cambriano?
“L’esplosione del Cambriano è un evento nella storia della vita, nel quale appaiono improvvisamente da trenta a quaranta diverse architetture di body plants (un body plant è un modo di organizzare parti del corpo e organi). Abbiamo dei trilobiti dotati di occhi, abbiamo pesci collocabili all’inizio del Cambriano, 530 milioni di anni fa. In tutto il pianeta, ma in particolare in Canada e in Cina, c’è questa repentina apparizione di nuove forme di vita. Domanda: come sono nate? Tanto più considerando che nei ritrovamenti fossili non c’è traccia delle strutture intermedie previste dall’albero della vita disegnato da Darwin. Non ci sono connessioni con forme di vita semplici risalenti a periodi anteriori e non c’è nessuna forma intermedia che suggerisca una graduale evoluzione di queste forme da qualcosa di più semplice. E’ un mistero: i fossili che troviamo non corrispondono a ciò che Darwin dice che dovremmo trovare. Tutte le tesi che hanno cercato di spiegare l’assenza di questi fossili sono cadute. Poi in Cina sono stati ritrovati – risalenti ad appena prima l’esplosione del Cambriano – microscopici fossili morbidi di embrioni di spugna. Fino a quel momento l’idea era che i fossili intermedi non potevano essere trovati perché troppo piccoli e troppo morbidi. Ma adesso troviamo microscopiche parti organiche morbide del Cambriano e pre- Cambriano. A questo punto i paleontologi si grattano la testa e dicono: se si sono preservati questi minuscoli fossili, perché non troviamo le forme organiche di transizione verso animali più grandi? Se si preserva un embrione, dovrebbe preservarsi un animale. Ma non ce n’è traccia. E ora un numero crescente di paleontologi arriva alla conclusione che l’esplosione del Cambriano sia un fatto reale: un avvento improvviso di nuove forme animali. Questo se si parla di fossili. Ma anche da un punto di vista ingegneristico c’è un interrogativo: come sono stati assemblati questi animali? Sono forme animali complesse, con cinquanta o sessanta tipi diversi di cellule e con un gran quantitativo di nuove informazioni genetiche necessarie a costruirle. Ai miei studenti di solito dico: se volete dare al vostro computer una nuova funzione, cosa fate? Lo sanno: devono programmare. Stessa cosa per la vita: per assemblare un organismo nuovo di zecca, bisogna dotarlo di una gran quantità di nuove informazioni. Quindi, quando guardiamo all’esplosione del Cambriano, in effetti stiamo guardando a un’esplosione di informazioni necessarie a costruire i nuovi animali. Noi crediamo, sulla base di esperienze ripetute, che solo un agente intelligente possa produrre informazioni, come solo un programmatore di computer può produrre software per computer. La presenza delle nuove informazioni necessarie a costruire gli animali del Cambriano è un potente indicatore di un evento nella storia della vita che ha richiesto la presenza di un disegno intelligente”.

Un altro enigma da spiegare per il darwinismo è l’uomo, gestore di linguaggi e simboli e padrone di una coscienza e di una consapevolezza senza precedenti.
“L’origine del linguaggio è un enorme problema per il neodarwinismo. Il linguista Noam Chomsky da tempo ha dichiarato che la ricostruzione evoluzionistica della nascita del linguaggio non funziona. E’ un mistero irrisolto. L’abilità di usare il linguaggio e organizzare il pensiero astratto è unico dell’essere umano, e non trova spiegazione rifacendosi a procedimenti materialistici di qualsiasi genere”.

Pensa che la sovrapposizione tra creazionismo e disegno intelligente si protrarrà nel tempo?
“ID e creazionismo sono spesso confusi tra loro. Non sono la stessa cosa e in particolare hanno due differenze-chiave: il creazionismo è una teoria del tempo che parte dal racconto del Libro della Genesi, ovvero basato su una particolare lettura della Bibbia. L’ID è basato su prove scientifiche e non è un’interpretazione delle Scritture, ma un’interpretazione di prove biologiche. L’ID è una spiegazione provata per l’origine delle complessità biologiche, non la deduzione di un dettato religioso. Sono diversi i contenuti ed è diverso il metodo, nel nostro caso basato sulla scienza, non sull’interpretazione delle Sacre Scritture”.

Far parte di una minoranza influenzerà la sua carriera?
“Ogni volta che un’idea scientifica è messa in discussione c’è resistenza, a opera dei suoi principali assertori. Questo dibattito possiede un’energia ancora maggiore, perché non tratta solo di un’idea scientifica, ma di qualcosa con implicazioni ben maggiori, dal momento che discutiamo su cosa abbia prodotto la vita. E’ un dibattito che accende passioni e diversi scienziati pagano prezzi alti per il loro sostegno all’ID. Ma al tempo stesso abbiamo una comunità scientifica in favore dell’ID che si sta ingrossando ai quattro angoli del mondo e un gruppo ancor più nutrito che mette in discussione le teorie neodarwiniste. Di conseguenza non credo che questa idea possa essere fermata da chi le si oppone cercando di reprimerla. E credo che la prossima generazione sarà determinante nel produrre l’effetto decisivo in favore delle nostre teorie. Thomas Kuhn nel suo libro sulla struttura della rivoluzione scientifica dice che non si cambiano le idee scientifiche finché coloro che le sostengono non vanno in pensione. La rivoluzione prende forma quando una generazione si ritira e la successiva prende il potere. E’ ciò che accadrà con l’ID”.

-----------------------------------------------------------------------------------------------------------

Michael Behe è la punta di diamante della teoria del disegno intelligente. I suoi studi sull’irriducibile complessità del batterio flagellum, il successo popolare del suo libro “Darwin Black Box” nel quale presentava i suoi esperimenti e le sue tesi, ne hanno fatto l’uomo di punta del movimento, lo scienziato che percorre da solo la strada di una scoperta così rivoluzionaria da rischiare la persecuzione.

Il bello è che, suo malgrado, il 54enne professor Behe ci mette anche il phisique du role, che non è quello di un assertivo venditore di elisir magici, ma quello timido di un professore di provincia, un omino calvo e occhialuto, con una barba fricchettona e l’eloquio gentile, vestito sempre in camicie a scacchi e jeans. Behe insegna biochimica alla Lehigh University di Bethlehem una magnifica cittadina universitaria nella Pennsylvania Centrale ed è con Stephen Meyer il principale animatore del Center for Science and Culture al Discovery Institute di Seattle, il centro operativo dell’Intelligent Design.

Per incontrarlo, lasciamo Seattle e ci imbarchiamo su un volo per Philadelphia e poi viaggiamo per 150 chilometri attraverso lo stato che fu uno dei cuori pulsanti dell’industrializzazione americana e che oggi paga tutti i prezzi economici e sociali della postindustrializzazione. Del resto l’incontro con Behe è un passaggio obbligato verso la prossima tappa dell’inchiesta: il sopralluogo a Dover, l’incontro coi protagonisti e i testimoni del processo intentato al Disegno Intelligente a fine 2005 e l’intervista con il giudice Jones, autore di quella sentenza già entrata nella storia.

Bethlehem è una località divisa in due: in alto la città incantata, un gioiello utopico rimasto praticamente identico all’insediamento dei moraviani tedeschi. In basso lo scheletro nero della Bethlehem Steel Corporation, chiusa nel 2003 dopo essere stata una delle più importanti acciaierie della nazione. Il professor Behe vive a una decina di chilometri dall’università, dove non pare sia troppo popolare, se è vero che il sito del suo istituto di biochimica pubblica nell’home page un comunicato col quale i membri della facoltà si dissociano dalle teorie di Behe sull’irriducibile complessità e sulle conclusioni connesse. “Pseudo-scienza” l’insultante qualifica che i detrattori di Behe hanno coniato per le sue ricerche. E non si direbbe che al processo di Dover, a cui il professore ha testimoniato in favore della pretesa di scientificità dell’ID, gli sia andata meglio, stuzzicato dalle contestazioni dell’accusa e dalle richieste di precisazioni del giudice. Incontrando Behe, però, si ha la sensazione che questi incidenti di percorso difficilmente scalfiranno le sue convinzioni. Vive in una casa nei boschi, sulle colline attorno a Bethlehem, una location intatta e remota, che fa pensare un po’ all’eremitaggio mistico, un po’ alla comunione con la natura, un po’ a Unabomber. Apre la porta un magnifico bambino biondo e scalzo, e appena dentro s’inciampa in un’altra mezza dozzina di mocciosi sorridenti, oltre che in una moglie di origine italiana. Cortese e minuto, il professor Behe, ci porta su una veranda nel verde e comincia a rispondere, mentre i ragazzini giocano con le costruzioni tutto intorno.

Dottor Behe, al processo di Dover è stato messo alla sbarra il suo intero lavoro, a partire da quella piccola questione locale proiettata in chiave assoluta. Come interpreta questi eventi?
“Al processo, nonostante fosse in discussione solo la situazione specifica di un certo distretto scolastico, la domanda è diventata subito: l’ID può essere insegnato nelle scuole? Il passo successivo è stato chiedersi: cosa c’è dietro? Per questo motivo il processo ha provato ad analizzare quali fossero le prove in favore dell’ID. E da un angolo remoto della Pennsylvania Centrale ci siamo trovati collocati in questioni universali attinenti la religione, la filosofia e la scienza. In ogni caso credo sia stato un processo interessante”.

Lei ha deciso di contestare per iscritto le tesi esposte dal giudice Jones nella sentenza del processo.
“Il giudice nella sua sentenza ha deciso di deliberare non solo sulle eventuali finalità religiose alla base dell’iniziativa del consiglio d’istituto di Dover, che ha giudicato anticostituzionali in base a ciò che afferma la legge americana. Ma anche di decidere se l’idea di ID appartenga alla scienza o alla religione. E lui, che non è uno scienziato o un teologo, ha dichiarato che l’ID appartiene alla religione, e per maggior precisione al creazionismo. Io sono coinvolto nell’ID, ho scritto un libro sull’argomento, e giudico questa sua sentenza in completo contrasto con le mie conclusioni. Il giudice si è limitato ad accettare in toto i pareri di persone in opposizione all’ID e ha ignorato quelli delle persone che hanno sviluppato la teoria, come il sottoscritto. Dal momento che la sua sentenza ha ricevuto grande attenzione, volevo essere sicuro che le mie posizioni fossero a disposizione di chi volesse conoscere un diverso punto di vista”.

Cosa significa per uno scienziato credere nell’ID?
“Dal mio punto di vista credere nell’ID non modifica la prospettiva. Credo che il lavoro della scienza sia quello di osservare il mondo e capire come sia diventato ciò che è. Il più delle volte ci si trova a parlare di comuni cause fisiche, come il tempo atmosferico, le erosioni, le mutazioni della selezione naturale. Ma in certi casi queste non sembrano spiegazioni adeguate. Se studiamo i dati fisici ed essi indicano che un disegno intelligente li ha assemblati in un certo modo per un qualche scopo, non facciamo altro che il nostro lavoro, che è sempre quello di cercare di capire come funzionano e da dove vengono gli elementi che formano il nostro mondo. L’ID nella mia visione della scienza non è niente di più che una conclusione a cui mi portano i dati”.

In questo modo lei però deve fare scienza tenendo conto di un dato-chiave del quale scientificamente non comprendiamo niente.
“Beh, potrebbe essere difficile se fossimo in presenza di un designer che costantemente influenza il mondo che cerchiamo di studiare in quanto scienziati. Ma non è così e se questa è la realtà delle cose, bisogna trovare il modo migliore di relazionarsi ad essa. Nella scienza, poi, ci sono sempre fattori sconosciuti che improvvisamente possono saltar fuori. Non possiamo dichiarare che vorremmo che la realtà fosse fatta in modo che sia più facile studiarla: dobbiamo confrontarci con le cose per come ci appaiono. C’è quella vecchia barzelletta americana: una sera un ubriaco si mette a quattro zampe sotto un lampione. Passa uno e gli chiede che diavolo stia facendo. Lui risponde: ‘Sto cercando le chiavi della macchina’. E l’altro: ‘Le hai perse qui?’. ‘No’, risponde l’ubriaco ‘le ho perse là in fondo’. ‘E allora perché le cerchi qui?’. ‘Perché c’è più luce’, risponde l’ubriaco. Ci penso sempre quando qualcuno mi dice che bisogna escludere il disegno intelligente perché è difficile relazionarsi con esso. Se il mondo è fatto così, se le chiavi sono là in fondo, è inutile cercarle qui”.

Quando ha cominciato a convincersi dell’ID? E cosa pensa oggi delle teorie di Darwin?
“Sono cresciuto credendo nella teoria di Darwin perché è quella che mi è stata insegnata a scuola e non avevo motivi per mettere in discussione i miei insegnanti. E’ stato alla fine degli anni Ottanta, quando ero già professore associato alla Lehigh University, che ho letto un libro intitolato ‘Evolution: a theory in crises’ di Michael Denton, uno studioso di genetica australiano. Denton avanza una serie di obiezioni alla teoria di Darwin, senza peraltro proporre l’ID o un’altra teoria alternativa. Era stufo di sentir dire che il darwinismo fosse una teoria conclamata, quando ai suoi occhi c’erano un’infinità di problemi connessi. Il suo libro mi fece saltare agli occhi queste contraddizioni e al tempo stesso mi fece arrabbiare perché capii che ero stato spinto a credere cose che i dati reali non confermavano, ma che rimanevano in vigore per motivazioni sociali. Quello era ciò che ci si aspettava che tutti credessero. Da quel momento ho approfondito il tema dell’evoluzione ma c’è voluto un altro anno perché, attraverso una specie di progressione naturale, approdassi alle tesi del disegno intelligente. Oggi sono convinto che la teoria di Darwin spieghi alcune cose, che sia una buona teoria, ma che non spieghi tutte le cose che alcune persone pretendono che spieghi. Spiega la resistenza agli antibiotici (in realtà, ci sono spiegazioni migliori per tale resistenza ed anche lo spiacevole ritrovamento nei resti di alcuni marinai ritrovati nell'Artico di batteri resistenti agli antibiotici prima che gli antibiotici fossero inventati - ndM), spiega le piccole variazioni negli animali e nelle piante. Funziona. Ma non copre il grande lavoro che alcuni dei suoi sostenitori le attribuiscono”.

Può illustrare la sua teoria dell’irriducibile complessità?
“Nel suo testo ‘L’origine delle specie’ Darwin dice che se venisse dimostrato che qualcosa non può essere prodotto attraverso numerose, progressive e riuscite modificazioni, la sua teoria cadrebbe in pezzi. Questo significa che il darwinismo sostiene che è possibile costruire qualsiasi struttura o sistema biologico passo dopo passo, con minime variazioni, in un tempo molto lungo. E che a ciascun passo il sistema funziona sempre meglio – e in ogni caso funziona. Il problema per la teoria di Darwin è che molte cose in biologia, in particolare per quanto concerne la cellula, non vanno così. La cellula contiene molti diversi componenti e ha bisogno che ciascuno di questi componenti funzioni a dovere. Se uno o più di questi componenti non fanno il proprio dovere, il sistema si rompe. A questo punto però è molto difficile capire come possa essersi generato progressivamente un sistema che richiede una molteplicità di componenti. Io ho chiamato questo problema ‘irriducibile complessità’, basandomi sul principio che alcuni sistemi necessitano di molte componenti che lavorino simultaneamente. Come esempio uso quello della trappola per topi, un oggetto che tutti conoscono, formato da diversi pezzi, tutti indispensabili, nel senso che basta levarne uno e la trappola non funziona più. Molte cose in biologia funzionano allo stesso modo e sono difficili da spiegare nei termini della visione di evoluzione graduale sostenuta da Darwin”.

Ho letto dei suoi studi sul batterio flagellum. E’ un caso unico da lei riscontrato?
“E’ uno di migliaia. Quasi tutto nella cellula è molto complicato. Più la scienza studia la cellula, più capiamo che è ancora più complicato di quel che pensavano solo dieci anni fa ed estremamente più complicato di quanto credevamo quarant’anni fa. La cellula è piena di quelle che i biologi chiamano macchine molecolari e queste, come le macchine d’uso quotidiano, prevedono numerosi componenti – pensiamo a un motore che fa girare una ruota, o a cose del genere. La scienza chiama proteine le componenti delle macchine molecolari e molte proteine che ora conosciamo sono a loro volta dei composti complessi. In questi sistemi tutte le proteine devono funzionare e ciò significa che praticamente l’intera struttura della cellula è di una complessità irriducibile e costituisce un grosso problema per i sostenitori del darwinismo”.

Queste macchine non possono essere state costruite dalla Natura?
“Non si può mai dire ‘impossibile’ parlando di scienza. Diciamo che è altamente improbabile. Non abbiamo prove che ciò sia accaduto e nessuna rivista scientifica ha mai dimostrato che un occhio, o anche una struttura meno complessa, possa essere creata in base a mutazioni casuali o alla selezione naturale. Il problema è: puoi certamente ricavare macchine più semplici partendo da macchine più complesse, ma il darwinismo sostiene che si può passare dalle macchine semplici a quelle complesse attraverso processi casuali che avvengono nel corso della selezione naturale. Ma passare da una semplice macchina che lavora in un modo a un’altra macchina che agisce diversamente è un processo complicato. Torno alle trappole per topi, perché mi piacciono: si può avere una trappola semplice, fatta solo di colla. Metti della colla sul pavimento, il topo di resta attaccato ed è in trappola. Ma come arriviamo alla trappola meccanica partendo dalla colla? La colla non ha niente a che vedere con le parti meccaniche. In effetti ciò che si deve fare è riprogettare la trappola. E anche se hai una trappola fatta d’un paio di elementi e ne vuoi costruire una più complessa, con più elementi, anche in questo caso devi ridisegnare tutto. Questo richiede intelligenza. E’ improbabile che tutto ciò accada in base a mutazioni casuali. E se ci si rifà ai calcoli matematici delle probabilità, ci si rende conto che è improbabile che ciò potrebbe mai accadere lungo tutto il corso della presenza della vita sulla Terra”.

Nella sua riflessione, alla fine il disegnatore intelligente è Dio.
“Certo. Io sono cattolico e ho sempre creduto in Dio. Ma ho ricevuto l’insegnamento delle teorie darwiniste lungo tutti i miei studi nelle scuole della Pennsylvania e non ho mai notato contraddizioni teologiche tra la mia fede e l’apprendimento di questa teoria. Oggi semplicemente penso che il darwinismo non sia una buona spiegazione dal punto di vista scientifico. Quando parlo di designer, di solito non aggiungo la mia convinzione che si tratti di Dio, perché cerco di limitarmi a evidenziare ciò che le prove mostrano. Il batterio flagellum mostra che è stato progettato, ma non ha il nome del progettista marchiato da qualche parte, non c’è scritto ‘made by God’. C’è chi potrebbe pensare che sia stata una forza aliena a creare tutto ciò e io non ho elementi inconfutabili per dire che costoro abbiano torto. Io sono personalmente convinto che il progettista sia Dio, ma questo discende da ragionamenti filosofici e teologici. Perciò quando uso l’espressione ‘designer’ non cerco di nascondere nulla. Provo solo a essere prudente”.

Lei e i suoi colleghi vi ostinate a parlare di scienza, ma finite sempre con l’etichetta di creazionisti. Come se lo spiega?
“Quando il dibattito sull’ID è arrivato al grande pubblico, la maggioranza non ne aveva mai sentito parlare, né sapeva granché della cellula o di cosa sia accaduto nel mondo scientifico negli ultimi vent’anni. Così i giornali, quando volevano parlare dell’argomento si affidavano a categorie che i lettori potessero riconoscere. Tutti sapevano cosa fosse il creazionismo che crede nella verità letterale rivelata dal Libro della Genesi. Per i reporter è stato semplice fare l’equazione, dal momento che c’era sempre Dio di mezzo. E hanno cominciato a parlare di riaffiorare del creazionismo. Secondo me, tutto ciò non ha niente a che vedere col creazionismo, che è una convizione che parte dalla Bibbia e successivamente si mette in cerca di prove capaci di supportarne il dettato. L’ID invece guarda a dati scientifici e per essi ricerca la migliore spiegazione possibile. Se studi il flagellum, hai la precisa impressione che sia stato progettato. Il fatto che tutto ciò sia congeniale a un discorso religioso è secondario. Tutto parte da prove scientifiche”.

Sta ancora lavorando sul flagellum? E’ ancora il suo migliore amico?
“Il flagellum funziona a meraviglia per spiegare l’ID: è un motore fuoribordo che il batterio utilizza per muoversi. E’ un rotore. All’inizio gli scienziati pensavano non fosse niente di complicato, come capita spesso in laboratorio. Poi si approfondisce e viene fuori che è tutto più complesso. Negli ultimi trent’anni gli scienziati hanno dimostrato che il batterio flagellum è una complicata macchina molecolare. E’ piccola, ma ha un motore, un’elica e ha la capacità di autocostruirsi. Perché qui non ci sono gli uomini ad assemblarlo, ma è la cellula che deve autoprodurre i suoi macchinari. Io l’ho scelto perché è molto chiaro nelle foto e negli schizzi e il pubblico ne afferra subito la natura meccanica”.

Su cosa sta lavorando ora?
“Su un nuovo libro nel quale provo a spingere più avanti l’idea di ID. In ‘Darwin Black Box’ ipotizzavo che alcuni elementi della cellula fossero progettati da un’intelligenza. Adesso pongo una domanda: se qualcosa nella cellula è progettato e qualcosa no, dove si situa il confine tra i due settori? Che sarebbe come chiedersi dove sia il confine tra ID e Darwin, nella cellula. Prendiamo l’esempio dell’automobile. Uno può chiedersi: quali parti di questa macchina sono progettate e quali sono nate per caso? Ad esempio, se c’è un graffio su una fiancata, quello è stato prodotto dal caso. Ma il motore non è stato assemblato dal caso. Lo stesso accade nella cellula: mutazioni sono possibili, incidenti genetici capitano e alcune parti della cellula possono essere il risultato di processi casuali e della selezione naturale. Ma altre parti sono il prodotto di un progetto”.

A quali conclusioni arriva nel suo libro?
“La conclusione è che la progettazione si spinge in profondità nella cellula. La cellula è quasi interamente progettata. Ma il design non va confinato semplicemente alla cellula. Non penso che tutto il resto arrivi dalla selezione naturale e dalle mutazioni casuali. Negli ultimi dieci anni, gli studiosi di genetica interessati a come un organismo si sviluppi, hanno scoperto nelle cellule delle reti di comunicazione genetica sofisticate e complesse, fatte ad hoc per distinguere quale tipo di organismo si debba sviluppare: mammiferi, pesci, vermi e via dicendo. Questi network si collocano ben oltre i procedimenti darwiniani. Per cui oggi mi sento di poter affermare che l’ID si spinga oltre la cellula, dentro il mondo di organismi più complicati. Senza che ci sia bisogno di arrivare a parlare delle sfumature tra diverse razze canine, ma molto, molto avanti”.

Che cosa vede nel futuro dell’ID?
“Nel prossimo futuro l’ID resterà oggetto di una controversia, perché contiene sfumature filosofiche che continueranno a preoccupare molte persone. Ma sono anche convinto che in un futuro più lontano l’ID diverrà un’idea dominante, analizzando in quale direzione puntano le prove scientifiche. Più ne sappiamo attorno alla cellula, più ne afferriamo la complessità e l’eleganza, più questo ci porta a pensare a un progetto. A me basta osservare quanto si è approfondita, la conoscenza della cellula negli ultimi dieci anni, ovvero da quando ho scritto ‘Darwin Black Box’. E il trend non dà segni di cedimento. A dispetto delle affermazioni di molti oppositori dell’ID, ancora non ci sono risposte alla domanda su come questi organismi possano essersi sviluppati sulla base della mutazione casuale e della selezione naturale”.

Quale sarebbe la scoperta decisiva?
“Non credo ci sarà la scoperta magica. Altrimenti il motore fuoribordo del flagellum già basterebbe, con la sua sofisticatezza. Credo piuttosto sia utile che questa materia sia discussa a lungo e che gli studenti non vengano istruiti a una teoria immutabile sull’argomento. Bisognerebbe lasciarli riflettere finché non diventeranno gli scienziati del futuro, spero assai meno dogmatici sull’evoluzione e sul darwinismo. Saranno loro a capire che il disegno intelligente spiega molto più della vita di quanto facciano queste teorie. Diamo tempo al tempo”

------------------------------------------------------------------------------------------------------------------

Giuseppe Sermonti, dopo aver trascorso una mattinata con lui, non mi sembra il pericoloso estremista che ho sentito descrivere. Non mi pare il diavolo e neppure l’acqua santa. Piuttosto uno scienziato poco convinto della priorità assoluta proprio della sua materia, la scienza, nel mondo delle idee e del progredire. Docente di genetica ma noto oppositore dello scientismo, Sermonti a un certo punto della carriera di ricercatore è uscito dal seminato e ha cominciato a pronunciare una serie di eresie che l’hanno isolato, ridotto in minoranza, arrivando a sbarrargli l’accesso ai luoghi deputati del dibattito scientifico. Oggi è un ironico uomo di cultura che sostiene con tocco dolcemente borghese la fede nelle sue idee. Che si accentrano attorno alla convinzione che il mondo scientifico abbia finito per restare stregato da un’idea illusoria dell’evoluzione darwiniana, della quale non è nemico ma critico scettico, allorché applicata all’intero sistema della vita. Sermonti oggi è un’eccezione nello scenario scientifico italiano e non a caso è stato notato e contattato – per la pubblicazione negli Usa del suo “Dimenticare Darwin” – proprio dalla gente del Discovery Institute di Seattle, il centro studi che è il principale propugnatore della teoria dell’intelligent design. Presto, a Seattle, sentirò parlare di lui con una devozione che non è la norma qui da noi. E mi ritroverò a ragionare sull’insostituibilità dell’ascoltare di persona le ragioni di un uomo, laddove la forza delle sue posizioni, qualsiasi esse siano, abbiano il carattere della rispettabilità e il dono dell’intelligenza.

* * *

Sermonti, pensavo d’imbattermi in un rovente confronto d’idee a colpi di tesi e antitesi. Invece intolleranza e rabbia sembrano farla da padrone.
“E’ così. Il dibattito in questo momento è soprattutto sul dibattito. Si deve dibattere o no? Sono stato a Topeka nel Kansas, per partecipare a un confronto tra evoluzionisti e sosteniori dell’intelligent design. Il problema è stato che i darwinisti non si sono presentati, perché non accettano di considerare il disegno intelligente come teoria scientifica. Concedergli il diritto alla contrapposizione equivale a dar loro una patente di scientificità che è proprio quella che non intendono rilasciare”

Cosa ne deduce?
“Un gran timore. Perché oggi la teoria darwiniana è in crisi completa. Ormai si difende solo negando agli interlocutori d’intervenire e proporre teorie alternative. Mi fa pensare alla discussione che ha avuto luogo in Italia in occasione delle ultime elezioni politiche: non si discutevano gli oggetti tematici, ma il diritto di discutere. Un metadibattito”.

Il problema di fondo, alla fine, è che scienza e religione non vogliono mescolare i loro argomenti?
“Questo mi sembra più che altro un pretesto. In effetti l’intelligent design non nomina mai Dio e non vuole che si assumano atteggiamenti di ordine religioso. E’ una teoria che si contrappone a un’altra teoria, esclusivamente con argomenti scientifici. L’accusa che si sente costantemente rivolgere, invece, è quella di essere solo una mascheratura del creazionismo”

Lei come la vede?
“Io penso che l’intelligent design non abbia a che fare col creazionismo né con la teologia. Io non la considero neppure una teoria scientifica, bensì una posizione scientifica: l’intelligent design chiede che si apra la discussione. L’evoluzionismo invece vuole chiudere la discussione: ormai sappiamo tutto, tutto è deciso. Ci mancano solo dei particolari da accertare, ma non vogliamo rimettere in discussione quella conquista di civiltà che è l’evoluzione. In effetti invece l’evoluzione sta morendo, è tenuta in vita artificialmente”.

Lei professa il più completo scetticismo verso la teoria dell’evoluzione?
“Io sono innanzitutto scettico sulla definizione di evoluzione: non sappiamo bene di cosa parliamo, quando parliamo di evoluzione. Per evoluzione s’intende “progresso”, secondo alcuni. Secondo altri s’intende invece “adattamento” e adattamento e progresso sono due cose in contrasto tra loro: il progresso è sviluppo in una direzione, adattamento vuol dire restringere, specializzare. Altri ancora rinunciano a tutti e due i termini e dicono: l’evoluzione è il cambiamento. Non c’è neppure un accordo sulla definizione. Poi ci sono tre punti fondamentali nel meccanismo dell’evoluzione: la mutazione, la selezione e la ricombinazione, ovvero la sessualità. Tutti e tre questi punti sono inadatti a spiegare l’evoluzione come progresso. Perché la mutazione è un fenomeno casuale, e non è con la mutazione che si può costruire qualcosa di complesso. La selezione è un fenomeno puramente riduttivo: elimina, non inventa. E la sessualità tende a confondere, a mescolare, mentre l’origine della specie è piuttosto un fenomeno di separazione, di isolamento. Quindi i tre meccanismi postulati dagli evoluzionisti per spiegare questo meccanismo mal definito, sono tutti e tre crollati”

Per l’avvento di una teoria come quella dell’intelligent design, che propone un’alternativa senza trascinarla fino alle estreme conseguenze, lei prova reale interesse?
“La ritengo utile nel processo di revisione del ciclo dell’evoluzione e soprattutto mi pare che provochi un’apertura di respiro, un sollievo. Io non potevo più venire a Roma a parlare di queste cose, l’università di Roma mi era preclusa, perché ero fuori del dogma. Un atteggiamento insostenibile nei confronti di chi prova a contestarlo”

L’ambiente scientifico ufficiale oggi accusa i sostenitori dell’intelligent design di cercare solo visibilità e appeal popolare.
“E’ certamente una guerra tra sordi. Ma quel materialismo, quell’ateismo che c’è al fondo dell’evoluzionismo, stanno prendendo altre strade. Oggi non s’interessano più tanto della natura quanto dell’ingegneria genetica e della manipolazione. E’ questo il modo in cui lo scienziato dimostra di saper fare quello che sa fare Dio. Non più studiare una natura che non dà soddisfazione, troppo complicata e difficile da ricostruire con quel fattore-tempo di miliardi di anni. Meglio allora il laboratorio, dove si può dimostrare d’essere capaci di creare un topolino. Mettendo tutti a tacere: Iddio non è più bravo di me. La capacità faustiana”.

Oggi, come vede, nell’ambito della controversia, la posizione della chiesa?
“La chiesa dice: vi concediamo tutto, però l’uomo no. L’anima umana no. Benedetto XVI dichiara: evoluzione sì, ma non a caso. Non il caso sovrano sul tutto, ma un “disegno”, un principio. Cosa che naturalmente ha creato entusiasmo tra i fautori del disegno intelligente. Il papa vuole un disegno, anche se poi magari gli dà un altro nome, principio, senso, ordine. E in effetti la teoria dell’evoluzione, così com’è accettata, è una teoria senza disegno, affidata al puro caso. Un’offesa al buonsenso, all’intelligenza umana, e anche alla scienza. Perché ciò che è affidato al caso non è più competenza della scienza. La scienza cerca l’ordine, i principi, la ripetizione. Non il caso”

La sua posizione è dunque quella d’un incoraggiamento alla tolleranza nei confronti del pensiero altrui.
“La mia posizione è quella di accettare tutto il coro che viene da tante voci umane e di non praticare alcun genere di censura, che poi è il terribile riduzionismo esercitato dalla teoria dell’evoluzione. A me la teoria dell’evoluzione non interessa neanche molto. Mi interessa lo stile col quale si lavora nei laboratori e nei convegni. L’evoluzione oggi mi pare una religione di stato, mi fa pensare al lysenkismo russo: bisogna pensare così perché il soviet supremo lo ha deciso. Ci troviamo in un’amara condizione, dalla quale cerco di uscire in tutti i modi, col mio personale sacrificio. Dobbiamo liberarci”.

(le interviste sono di Stefano Pistolini)


8 aprile 2008

I NEMICI DI DARWIN

Questa la dedichiamo a Maurizio Caprara.....

Sono anni che mi batto contro l’Evoluzionismo, e per necessità dialettica ho fatto quasi finta di credere che si trattasse di una Teoria Scientifica. In realtà all’Evoluzionismo manca una cosa per essere oggetto scientifico: una formulazione. Le definizioni di Evoluzione, che si trovano nei vocabolari letterari, sono esattamente quello di cui gli scienziati non vogliono sentir parlare. Il Devoto-Oli ha: "…passaggio lento e graduale degli organismi viventi da forme inferiori e rudimentali a forme sempre più complesse". Sbagliato, dichiarano gli scienziati di Harvard; l’evoluzione organica è una forma di adattamento locale che non implica alcuna forma di progresso. Poi ci ripensano e concludono che "adattamento" non significa nulla. Vuol dire "sopravvivenza", così che la migliore definizione dell’Evoluzione è la "sopravvivenza dei sopravvissuti". Se cercate nei glossari dei testi scientifici una definizione di Evoluzione potete trovarvi di fronte qualcosa del genere: "cambiamento di frequenze geniche in una popolazione, a buon diritto vi sentirete presi in giro, convinti come siete che l’evoluzione è qualcosa che dovrebbe consentire di passare da un batterio a una tigre, e non un’operazione statistica.

Ma allora che cos’è l’Evoluzionismo? E’ l’ovvietà secondo cui, se le cose ci sono, e un tempo non c’erano, in qualche modo e a un certo punto devono pur essersi formate, e il modo più banale e inoffensivo è quello di essersi formate un po’ per volta, gradatamente, passando dall’una all’altra. Questo vale per le nebulose, per gli organismi, per le lingue, per le culture, per gli strumenti musicali, per la tecnica, per tutto. Tale convinzione contiene l’ottimismo dell’ignorante, secondo cui all’inizio c’era l’amorfo e l’approssimato e poi è venuta l’opera raffinata; cioè l’idea che l’uomo sia nato dalla scimmia, un po’ per volta, per adattamenti, per tentativi. Fatto di cui non esiste l’ombra d’una prova, e non esiste la facoltà di dubitare.

Ma veniamo alla inveterata abitudine verbale dell’evoluzionista ad usare locuzioni come "ancora non c’era", o "già c’era", o "in via di sviluppo", che presuppongono un fatale e progressivo svolgersi dell’essere verso il meglio, ancorché la teoria non lo preveda. Trasferendo alla nostra cultura la sua fede, l’evoluzionista si scandalizza che nel duemila "siamo ancora a questo punto".

Di fronte ad ogni problema, è sempre stato un buon precetto quello di non adottare la prima soluzione, quella a portata di mano, la più felice. Ebbene, proprio l’adozione dell’ovvio "è" la ricetta dell’evoluzionista. Non richiede alcuna conoscenza, cultura, acume, può essere sostenuta da un analfabeta che di Darwin sappia solo che aveva la barba… Egli è autorizzato a sorridere con sufficienza se uno scienziato dubita che l’uomo discenda dalla scimmia. E da dove sennò? L’idea del progresso automatico esime dal problema di come improvvisa e solitaria emerge la grandezza. Giorgio De Santiliana (Il Mulino di Amleto) accusò questo "soporifero" gradualismo di essere la tenda sotto la quale nascondiamo la nostra ignoranza della storia.

Forse la più grave responsabilità culturale dell’evoluzionismo è proprio la generale opacità che esso ha disteso sulla realtà. Esso ha adottato il malvezzo, che Darwin ha inaugurato e i suoi seguaci sviluppato, di introdurre le affermazioni con dubitativi. "Forse", "potrebbe anche essere", "non si può escludere", "si può suggerire", "sarebbe ance possibile", e così via. Questo fraseggiare esonera dal portare prove, dal presentare argomenti. In questo modo la nostra povera immaginazione oscura tutto il meraviglioso, tutta l’imprevedibilità, tutta l’inaudita sfrontatezza con cui la natura compie le sue opere. Il mondo è andato come è andato, ma avrebbe potuto andare in qualunque altro modo, naturalmente anche senza di noi, senza la Terra e senza il mondo. Per questo, poco ci sorprende e poco ci interessa di come sia realmente andato. Il mondo degli evoluzionisti è un mondo in cui tutto cambia, senza che succeda mai nulla. In cui i problemi non si risolvono perché non ci sono, e questa è la soluzione di tutto. Un mondo virtuale.

Il duemila si apre con l’Ingegneria Genetica, che è una distruggitrice di misteri e di incanti molto superiore ai "potrebbe essere" dell’Evoluzione. Il Faust che costruisce l’uomo in provetta se la ride di come Iddio o la Natura si siano industriati a costruire Adamo. Un’autorevole rivista inglese (New Scientist) ha intestato il suo fascicolo "Evolution is dead" (l’Evoluzione è morta). E argomenta così: che cosa può importarci più della decrepita Evoluzione quando le specie cambiano sotto le nostre mani in pochi giorni? Non abbiamo più bisogno di Dio, ma neppure della Natura, cioè di quella dea baschereccia, che abbiamo tenuto in carica in attesa di prendere il potere direttamente in pugno? Ma l’Ingegneria Genetica funzionerà? Personalmente, ne dubito. I biologi stanno imparando ad usare i computer, e si prepara il trionfo di un altro tipo di ingegneria: la realtà Virtuale. L’evoluzione degli organismi virtuali è la biologia del futuro. Senza Dio, senza natura, senza Realtà.

Giuseppe Sermonti


12 marzo 2008

LA NUOVA FISICA

 La fisica, apparentemente così lontana dalla vita quotidiana, influenza invece la nostra concezione del mondo: teorie diverse sono correlate con diversi modi di considerare noi stessi e l’ambiente che ci circonda. Così la fisica di Newton e Galileo ha raffigurato l’Universo come un grande orologio, un meccanismo comprendente anche l’uomo, considerato un ingranaggio privo di reale libertà. Invece la rivoluzione scientifica del Novecento ha reso vivente il cosmo e ha attribuito all’uomo e alla sua mente un nuovo significato e un ruolo unico e centrale

 Come ha scritto Paul Davies, fisico inglese di notevole prestigio, “sono due le grandi rivoluzioni che hanno determinato la nascita della nuova fisica: la teoria dei quanti e la teoria della relatività”. (1)

Si trattò infatti di un radicale sconvolgimento rispetto al panorama della vecchia fisica classica, anche se molte profonde implicazioni vennero comprese solo in seguito.

La comunità scientifica non si trovò di fronte ad un nuovo passo sulla linea delle precedenti teorie di carattere generale, come era avvenuto più volte nel XIX secolo. Agli inizi del Novecento, invece, avvenne un cambiamento di piano, un radicale ribaltamento nel significato stesso di numerosi termini scientifici (spazio, tempo, massa ecc.): si configurava una diversa gestalt conoscitiva, un nuovo modo di percepire il mondo. Per comprendere meglio tale salto qualitativo crediamo opportuna una breve rivisitazione storico-scientifica dei fondamenti e dei principi della fisica classica. Se vogliamo indicare date e padri fondatori, dobbiamo risalire alla seconda metà del XVI secolo, ricordando in primo luogo Francesco Bacone (1561-1626) e Galileo Galilei (1564-1642). Questi due studiosi, come i loro successori posti sulla stessa linea di pensiero, rifiutavano in blocco, senza alcuna discriminazione o selezione, il sapere scientifico precedente, di impronta aristotelica, screditato principalmente dai mediocri “discepoli” dello stagirita, le cui idee più feconde e valide erano spesso incomprese o trascurate.

Da Bacone la scienza moderna ha ereditato l'impostazione razionale del metodo sperimentale, empirico, ma in una accezione particolare che, a ben vedere, risulta tipica di una certa scienza di impronta prometeica, cioè contraddistinta da un sottofondo “duro” di superbia, bramosia di dominio della natura, disprezzo per l'armonia del cosmo. Così, secondo Bacone, l'investigazione del mondo fisico va condotta quasi nei termini di un processo per stregoneria: al fine di estorcere alla natura i suoi segreti, questa deve essere resa “schiava”, “costretta a servire” “messa in ceppi”, cioè torturata senza rispetto né limiti.

 Anche se con una terminologia meno enfatica, ancora oggi non pochi in ambito scientifico esprimono analoghe idee, strettamente legate ad una visione tecnocratica della società. La stessa utopia che sostiene le biotecnologie, con la loro frenetica attività manipolatoria degli organismi viventi, potrebbe trovare alcune anticipazioni nel pensiero di Bacone.

Da parte sua Galilei, a cui dobbiamo la legge della caduta dei gravi, oltre ai ben noti studi di astronomia, asserì che il compito della scienza consiste nell’analisi quantitativa della natura, per cui egli supportò ogni sperimentazione con un apparato matematico. In tale concezione, riveste valore di realtà solo ciò che può venire tradotto in numeri (nel loro significato di misura, non quindi simbolico, come nel pitagorismo): masse, movimenti, forze, ecc. Il resto, cioè i colori, i suoni, i sapori, gli odori, secondo Galilei, non essendo quantificabili, mancano di interesse per la scienza, in quanto semplici proiezioni della mente umana. Lo studioso pisano operava, così, una riduzione del mondo fisico ad apparato di formule matematiche, escludendo tutto ciò che gli risultava privo dei requisiti per venire misurato. In tal modo, però, espelleva l'esperienza qualitativa dall’ambito del discorso scientifico. Anche il concetto di “causa”, in senso moderno, ossia lineare, unidirezionale, deterministico-meccanico risale a Galilei: egli operò una semplificazione radicale rispetto all'aristotelismo, che considerava sia la causa efficiente (deterministica), sia la causa finale.

 Altri due grandi studiosi ai quali si deve l’edificazione della fisica moderna sono Renato Cartesio (1596-1650) e Isacco Newton (1642-1727).

Il primo formulò la cornice concettuale della scienza del Seicento, cioè il disegno dell'universo come una Grande Macchina. Proseguì sulla via del matematicismo di Galilei (metodo analitico) e impostò i termini della separazione netta fra Io e natura (soggetto e oggetto), tra anima (res cogitans) e materia (res extensa).

Il cosmo e tutti i viventi venivano assimilati a ciechi meccanismi, scomponendo così il creato in una somma di frammenti slegati, privi di vera vita. Cartesio attribuiva all'uomo, come sua specificità, il possesso dell’anima, ridotta però a pallido fantasma. Ecco dove troviamo le basi del moderno dualismo. L 'idea della natura come organismo vivente veniva sostituita sempre più con quella di macchina regolata da leggi deterministiche, da dominare senza limiti etici. Se vogliamo, le origini culturali dell’attuale disastro ecologico sono rintracciabili qui: infatti di fronte alla terra vista come madre e nutrice, si mantiene rispetto, non così di fronte a un sistema inanimato, che si può manipolare e sfruttare a piacere, come ha notato tra gli altri Carolyn Merchant.

Con Newton, autore delle leggi della gravitazione universale, vengono infine enunciate le regole che governano la Grande Macchina, l'Orologio Cosmico. Lo spazio tridimensionale vuoto costituisce la scena newtoniana in cui si svolgono gli eventi fisici, la cui successione viene registrata dal tempo che scorre uniformemente: spazio e tempo sono due a priori oggettivi, assoluti, indipendenti l'uno dall'altro.

 Tali eventi fisici sono costituiti dal movimento di particelle materiali, solide e indistruttibili, dotate di una precisa posizione e di una ben definita grandezza, gli atomi, intesi in senso molto simile a quello del pensiero democriteo, nella Grecia classica. Per analizzare questa realtà omogenea, priva di elementi qualitativi, Newton elaborò il calcolo differenziale. Per obiettività storica andrebbe però aggiunto che lo scienziato inglese era una figura estremamente complessa, nel cui pensiero si trovano anche molti elementi concettuali propri all’alchimia. Infatti dalle ricerche di Betty Jo Teeter Dobbs e di altri studiosi sappiamo che iniziò a interessarsi d’alchimia circa all’età di venticinque anni, continuando fino alla morte. I suoi appunti sull’alchimia probabilmente costituiscono il 70% del totale dei scritti a lui riferibili. Newton non era comunque un alchimista, ma un’intellettuale con un’ottima conoscenza dell’argomento, tanto che possedeva i principali trattati d’alchimia allora noti. Non è questa la sede per analizzare tale duplicità, cioè la coesistenza tra un sapere almeno formalmente ancora “tradizionale” e un tipo di pensiero scientifico “moderno”. Possiamo limitarci a supporre che egli assunse le conoscenze alchemiche in un’ottica più esteriore (materiale) che interiore (spirituale), più formale che sostanziale, perdendo di vista, così, l’aspetto “vivente” e organico della natura che traspare dall’alchimia intesa in senso completo e integrale. Naturalmente è solo un’ipotesi che andrebbe approfondita e confrontata con quella sostenuta da altri, propensi a ritenere invece che il “meccanicismo” sia più un frutto dei suoi seguaci e continuatori che del suo reale pensiero, il cui significato andrebbe quindi “ripensato”.

 Parlando delle idee di Bacone, Galileo, Cartesio e Newton abbiamo delineato lo scenario meccanicista, che sostanziò anche il positivismo ottocentesco, di fronte al quale si venne a trovare la nuova fisica.

 In una sequenza organica i principi della scienza meccanicista potrebbero essere così riformulati in sintesi: un rigoroso determinismo, fondato su una causalità lineare e unidirezionale; un atomismo “statico” costituente la materia universale; la separazione essenziale sia tra osservatore e natura, cioè soggetto e oggetto, sia fra gli elementi del cosmo costituiti da masse "chiuse", sottoposte a forze esterne (molteplicità meccanica); lo spazio e il tempo intesi come contenitori vuoti, categorie assolute e universali, indipendenti dagli eventi fisici e dall'osservatore; una fenomenologia fisica continua, sempre misurabile tra un massimo e un minimo, senza disomogeneità né salti. In altre parole nei vari fenomeni, secondo tale concezione, vengono occupati, almeno una volta, tutti i livelli intermedi.

 Sperimentalismo “violento”, matematicismo riduzionista e scomposizione dei sistemi complessi nei loro elementi, studiati poi l'uno separatamente dall'altro, costituiscono la controparte metodologica di questo quadro, nel quale il tutto viene sempre spiegato attraverso le parti, ritenute ontologicamente precedenti e fondamentali. Sotto il profilo gnoseologico, da un lato riscontriamo una ingenua fiducia sul valore assoluto dell’esperienza empirica (il “senso comune”), dall'altro un disarmante ottimismo circa la possibilità di dominare la natura e di prevedere gli eventi fisici futuri, in base alla conoscenza di leggi deterministiche.

Osserva Davies che, secondo la pretesa della meccanica newtoniana, sarebbe possibile teoricamente “predire con la massima esattezza tutto ciò che accadrà fondandoci su quanto sappiamo in ogni istante dato. Tra causa ed effetto esiste un rapporto rigido; ogni fenomeno, dall'infimo fremito di una molecola all'esplosione di una galassia, è esattamente determinato da tempi immemorabili. In base a una meccanica così concepita, Pierre de Laplace (1749-1827) poté dichiarare che, se si potesse conoscere la posizione e il moto di ogni particella dell'universo in un determinato istante, si disporrebbe di tutte le informazioni necessarie per calcolare tutta la storia passata e futura dell'universo stesso” (2). In questa prospettiva, inoltre, venne poi attaccato alla base lo stesso concetto di ”libero arbitrio”, incompatibile con un mondo meccanicamente predeterminato. Alle soglie del XX secolo questo edificio teorico, che per molti doveva essere eterno, cominciò a scricchiolare seriamente. La fisica classica mancava di una spiegazione globale all'altezza dei tempi, di fronte alle sfide lanciate dai nuovi dati acquisiti nel campo della meccanica e della elettrodinamica. Ad esempio, il comportamento dei segnali luminosi sembrava contraddire il principio per cui ogni moto uniforme non può che essere relativo.

 Fu Albert Einstein che, con la teoria della relatività ristretta, enunciata nel 1905, risolse il problema, applicando il principio di relatività anche ai segnali luminosi. Vi era una implicazione di notevole rilievo: infatti Einstein asserì che il tempo si comporta come un elastico, poiché viene contratto o allungato dal movimento. In pratica, ad esempio, se una persona potesse viaggiare ad altissime velocità rallenterebbe di molto il trascorrere del tempo rispetto al suo normale fluire sulla terra, cosicché egli si troverebbe molto presto, alla fine del suo viaggio, in un'epoca assai lontana nel futuro. Naturalmente qui si parla di velocità oggi solo teoriche, in quanto il punto di riferimento è costituito dalla velocità della luce: approssimandoci a tale valore, la deformazione del tempo aumenta. Tutto ciò naturalmente risulta assurdo nell’orizzonte statico della fisica classica. Altrettanto si può affermare per lo spazio, anch'esso divenuto elastico nella teoria di Einstein: infatti lo spazio si accorcia quando il tempo si dilata.

Tale distorsione reciproca deriva dalla trasformazione dello spazio, che si contrae, nel tempo, che si allunga (un secondo equivale a 300.000 km).

Inoltre Einstein, con la famosa equazione E = mc2, che fa da corollario alla teoria della relatività, pose la rivoluzionaria equivalenza tra energia (E) e massa (m), legate da un preciso rapporto in presenza di una costante (c), la velocità della luce, al quadrato. Un corpo che si muove a velocità prossime a quelle della luce accresce la sua massa per effetto dell'energia che gli è propria: in definitiva la materia racchiude energia condensata, "Può essere considerata una forma di energia imprigionata" (3). Quindi la materia può rilasciare energia, mentre quest'ultima può creare materia.

Successivamente Einstein, includendo la gravitazione, formulò la teoria generale della relatività.

 Qui la gravità non è più una forza, come ritenuta in precedenza, ma diviene una deformazione della geometria dello spazio-tempo, per cui lo spazio risulta “curvo” e non "piatto", provocando distorsioni sia spaziali che temporali, in modo direttamente proporzionale. La grande sintesi di meccanica, elettrodinamica e gravità aveva rivoluzionato i parametri di base del macrocosmo newtoniano.

Il “buon senso” della fisica precedente vacillava di fronte al cronotopo relativista, per il quale il tempo costituisce la quarta dimensione dello spazio: l'universo statico di “pieni” e “vuoti”, di contenitori e contenuti cominciava a cedere il passo a un inquietante cosmo plastico e dinamico, in cui i soggetti del passato vedevano sovvertiti i loro significati e i loro ruoli.

 Un altro gravissimo colpo fu inferto, come si è detto, dalla teoria quantistica; frutto del lavoro collettivo di fisici del calibro di W. Heisenberg, L. de Broglie, M. Planck, E. Schrödinger, N. Bohr, P. Dirac, W. Pauli, M. Born, lo stesso Einstein, ecc.

Mentre la teoria della relatività si riferisce ai fenomeni del macromondo, la meccanica quantistica rivolge la sua attenzione al micromondo, cioè alla fisica delle particelle (si pensi che l'atomo ha un diametro di un centesimo di milionesimo di centimetro). Essa nacque appunto dalla necessità di possedere un modello valido per spiegare il comportamento degli atomi, la cui attività risultava ormai problematica e oscura nell'orizzonte teorico newtoniano. La meccanica quantistica, a parte la sua rivoluzionaria filosofia implicita, ha dimostrato di possedere anche notevoli ricadute pratiche, nel campo della tecnologia, avendo permesso la creazione dei superconduttori, del microscopio elettronico, dell’energia nucleare, dei laser e dei transistor. Essa ha introdotto ufficialmente nella scienza il concetto di imprevedibilità, almeno nel micromondo.

Venne demolita la concezione classica dell'atomo, paragonato ad un sistema planetario, con il nucleo al centro, come il sole, e gli elettroni circolanti attorno, su orbite fisse, al pari dei comuni pianeti.

  Questo modello risultava incapace a spiegare fenomeni quali la radioattività, cioè prevedere il momento esatto in cui un singolo nucleo atomico decade. Più in generale riusciva impossibile determinare con precisione tutti i fenomeni atomici e subatomici. Evidentemente il modello esplicativo, deterministico, di tipo planetario, era sbagliato.

La meccanica quantistica scardinò le rassicuranti certezze precedenti e dimostrò che gli errori di previsione dei microfenomeni non dipendono da errori di calcolo o da una strumentazione imperfetta, ma da una condizione obiettiva, inerente alla realtà.

 L'atomo si presenta diversamente da una “pallina” centrale attorniata da altre “palline” più piccole, ben localizzate sulle loro orbite: infatti le sue particelle, come gli elettroni, ad esempio, non possono più essere assimilate a oggetti materiali, ma vanno considerate come configurazioni dinamiche, in cui viene coinvolta l'energia presente sotto forma di massa delle particelle stesse.  della teoria della relatività, dato che la velocità degli elettroni si avvicina a quella della luce.

Si è scoperto così un mondo subatomico paradossale: infatti, a seconda di come le osserviamo, le unità microscopiche sembrano ora particelle, ora onde. Anche la luce presenta questa natura duale, apparendoci sia come un insieme di onde elettromagnetiche, sia come un insieme di particelle.  

Fu merito di Max Plank la scoperta della natura discontinua propria all’energia della radiazione termica: egli infatti notò che questa ultima si propaga sotto forma di “pacchetti di energia” cioè entità discrete, quindi non appartenenti ad una dimensione continua. Tali pacchetti vennero chiamati da Einstein “quanti”, da cui appunto il nome di “fisica quantica”. Egli asserì giustamente che tutte le forme di radiazione elettromagnetica possono presentarsi non solo come onde elettromagnetiche, ma anche sotto forma di quanti, ora chiamati fotoni, particelle di tipo particolare senza massa e in moto continuo. Questa duplice natura è applicabile anche agli atomi, ai mesoni, ecc.

Per inciso notiamo che la ben nota durezza della materia deriva dalla velocità vorticosa alla quale si muovono gli elettroni: infatti si ottiene lo stesso effetto di impenetrabilità di quello realizzato da un’elica mossa ad altissima velocità. Per il principio di indeterminazione di Heisenberg sappiamo che non possiamo conoscere, nello stesso tempo la posizione e il moto di un elettrone (o di una qualsiasi altra particella). La stessa concezione di una particella con posizione e moto ben definiti diviene assurda. Siamo di fronte a delle nebulose, indagabili solo probabilisticamente: a tale scopo opera l’equazione d’onda di Shrödinger, che ci fornisce la probabilità che una particella si trovi in uno specifico luogo e si muova ad una particolare velocità.

 Come viene spesso detto, l’onda quantica è un’onda di conoscenza o di informazione. Secondo Bohr il mondo dell’atomo, in realtà è “indistinto”, “nebuloso”: quando lo osserviamo sperimentalmente noi, in un certo modo, lo materializziamo in una  configurazione. Questo costituisce uno dei paradossi della teoria dei quanti, al quale non volle credere nemmeno lo stesso Einstein, ancora tentato da una visione della realtà fisica inficiata dal “realismo ingenuo”, che nega l’imprevedibilità intrinseca alla materia e la acausalità. L’introduzione di una concezione probabilistica, al livello microscopico, rende inconsistente il concetto di causalità lineare. Subentra, piuttosto, una nuova concezione, più articolata, del concetto di causa, che ci lega anche alla scoperta, fatta dalla fisica quantica, che esiste una essenziale interazione tra le particelle del cosmo. Queste, lungi dall’essere separate come mondi a sé stanti, risultano collegate tra loro anche a grandi distanze, in una strutturazione reticolare. Un esperimento condotto da Alaine Aspect, dell’università di Parigi, ha dimostrato al di là di ogni dubbio, che, anche da molto lontano (anni luce) esiste una cooperazione incredibile tra fotoni. Come scrive Capra, un fisico austroamericano tra i più noti per le sue riflessioni filosofiche, “nella nuova concezione, l’Universo è visto come una rete dinamica di eventi interconnessi. Nessuna delle proprietà di una qualsiasi parte di questa rete è fondamentale; ognuna di esse deriva dalle proprietà delle altre parti, e la coerenza complessiva delle loro connessioni reciproche determina la struttura dell'intera rete” (4) .

Infatti le particelle subatomiche non costituiscono oggetti ma interconnessione tra oggetti, a loro volta in relazione con altre cose , in un processo infinito perché circolare. In tal modo si evidenzia la fondamentale unità dell’universo, non scomponibile in entità minime esistenti autonomamente.

 In una rete di questo genere la discontinuità dei microfenomeni costituisce la regola. In tutti i processi atomici le attività che si manifestano devono essere dei multipli del quanto d’azione di Planck: l’energia non presenta parti più piccole dei quanti, infatti non possono esistere situazioni in cui si abbiano, per così dire, “mezzi quanti”. Un elettrone, ad esempio, non può cambiare in modo continuo la propria rotazione attorno al nucleo, ma può solo saltare da un livello all'altro, con assorbimento o emissione di energia (quanto).

Lo strumento del “continuo”, analizzato dal calcolo differenziale, si è rivelato insoddisfacente per indagare in modo esatto la realtà fisica, irriducibile alla metafora della quantità lineare.

Negli anni Trenta il fisico Bernhard Bavink, precursore per molti aspetti di ardite teorie filosofico-scientifiche attuali, scriveva che il mondo deve “in fondo assimilarsi ad un cinematografo, nel quale un susseguirsi di immagini in realtà discontinue (ad intervalli di circa 1/10 di secondo) dà l'illusione di un fenomeno continuo solo perché la nostra vista fonde in un'unica impressione tale rapida successione” (5). Un altro aspetto interessante, e inquietante, della meccanica quantistica è il ruolo attribuito all'osservatore. Si ritiene infatti che sia più un partecipante alla realtà studiata che un asettico soggetto separato dall'oggetto analizzato: egli interferisce in modo profondo con il mondo circostante nel momento stesso in cui esegue le sue indagini sperimentali. Quindi interviene anche nel processo di causalità reticolare. Non esiste una realtà in sé, separata dall'uomo e dalla sua mente che gli permette di conoscere il mondo, ma una totalità cosmica indivisa di cui siamo parte, perché intrinsecamente legati ad essa: “Nella fisica atomica, non possiamo mai parlare della natura senza parlare, nello stesso tempo, di noi stessi" (6), tanto che è stato coniato il termine di universo partecipatorio .

Così la mente umana assume un ruolo essenziale, per l'aspetto informazionale di cui è permeato l'universo. Infatti tutto diviene informazione: dall’onda quantica alla rete di rapporti che lega la materia, fino all'uomo che la indaga. L'universo comincia a sembrare maggiormente simile ad un grande pensiero che ad una grande macchina, come notò negli anni Trenta il fisico J. Jeans.

 Nel nostro secolo la vecchia concezione “particellare”, statica, del cosmo ha ceduto il passo a quella dinamica, costituita da una rete di relazioni plastiche, analoga a quella che caratterizza il pensiero umano, cioè i processi di tipo mentale.

Non esistono più “mattoni fondamentali” (non lo sono nemmeno i quark), poiché ogni livello della materia, per essere spiegato, rimanda ad un altro livello, in una continua circolarità complessa che ricorda gli “strani anelli” di Escher e dimostra la prevalenza, l'aspetto fondamentale e fondante del Tutto rispetto alle parti. Quindi necessita un'indagine scientifica che parta dalla totalità per andare verso le parti: l'olismo (da olon: intero in greco) entra in fisica a pieno titolo. A questo punto si presenta il problema dell’ordine sottostante questa totalità ben coordinata.

 Un interessante modello è stato elaborato dal fisico D. Bohm. Risulta compatibile con le attuali conoscenze scientifiche e possiede anche un certo fascino. Bohm asserisce che il livello più fondamentale del cosmo è una totalità indivisa: tutte le cose, comprese lo spazio, il tempo e la materia ne fanno parte. Vi sarebbe un ordine sottostante i processi dell’universo che può non risultare chiaramente esplicito. Bohm esemplifica molto bene assimilando questa situazione a quella di due cilindri di diversa misura, l'uno inserito dentro l'altro, separati da uno spazio interno riempito con glicerina.

Se si pone sulla glicerina una goccia di inchiostro, questa rimane ben visibile finché il sistema non viene alterato. Quando invece si ruota il cilindro esterno, lentamente la goccia si assottiglia, lasciando dietro di sé una scia scura, per poi scomparire del tutto. L'inchiostro è divenuto invisibile, ma naturalmente esiste ancora. Se giriamo in senso inverso il cilindro esterno, la goccia riappare, prima con una striscia e poi, alla fine, in un singolo punto.

Se si mettono più gocce sulla glicerina, deposte a distanza l'una dall'altra, separate da una rivoluzione del cilindro, si può vedere che esse appaiono e scompaiono ordinatamente e in successione, a seconda dei movimenti del cilindro esterno. Apparentemente non risultano correlate da nessun rapporto reciproco, mentre invece è l'esatto contrario: esiste un legame armonico e non causale tra le gocce, determinabile con una legge. Esse non si generano in successione l'una dall'altra, ma sottostanno ad una regolarità complessiva, estranea al causalismo lineare.

Così Bohm può parlare, in analogia, a livello cosmico, di un "ordine implicito" (diverso dall' "ordine esplicito" apparente), contenente lo spazio-tempo, costituito da connessioni non causali, dove le parti, che agiscono in modo relativamente autonomo, rappresentano solo forme particolari e contingenti dentro il Tutto. Questo ordine nascosto, di tipo olista, è simile a quello intuito dai "mistici” orientali, taoisti, buddhisti e induisti.

 Capra cita le parole del Lama Govinda, secondo cui "il Buddhista non crede in un mondo esterno indipendente o che esiste separatamente, tra le cui forze dinamiche egli può inserirsi. Il mondo esterno e il suo mondo interiore sono per lui due facce di uno stesso tessuto in cui i fili di tutte le forze, di tutti gli avvenimenti, di tutte le forme di coscienza e dei loro oggetti sono intrecciati in una inestricabile rete di relazioni infinite e reciprocamente condizionate" (7).

 Per gli orientali legati alle loro antiche tradizioni sapienziali l’universo è un grande schema, le cui parti operano come elementi del Tutto, correlate con questo Tutto. E su tale argomento Capra ha fornito una documentazione assai ricca e persuasiva.

Questo interesse per la metafisica dimostra che la nuova fisica si concilia con l'idea di Dio, di cui ritrova il disegno nella trama della realtà, come dimostrano anche gli scritti di F. Dyson e del già citato P. Davies. Ambedue rilevano che la fisica nucleare ha dimostrato l'esistenza di “singolari coincidenze numeriche" negli equilibri del cosmo, tali da permettere la vita, di per sé assai poco probabile, inspiegabile ricorrendo al semplice caso, “paravento della nostra ignoranza”.

Secondo Davies Dio potrebbe essere assimilato a “una mente universale che pervade il cosmo dirigendolo e controllandolo attraverso le leggi di natura per conseguire un suo fine... l'universo è una mente: un sistema, vale a dire, che si osserva e si autorganizza. E le nostre menti sarebbero, in questa oceanica mente universale, distinte isole di consapevolezza; ciò ricorda alcune concezioni mistiche orientali, secondo cui Dio è la totalità della consapevolezza di cui la nostra mente entra a far parte, perdendo così la sua identità individuale, una volta che essa abbia raggiunto un livello adeguato di perfezionamento spirituale” (8).

 Ecco dunque delineata la nuova fisica, antimeccanicista, olista, rispettosa della dimensione spirituale, ricca di paradossi, consapevole della natura dinamica, unitaria e armonicamente strutturata dell'universo, rete di relazioni discontinue e non-causali, comprendente lo spazio-tempo.

Emerge così un nuovo volto della realtà, che, come ha dimostrato Roberto Fondi (9), non può venire ignorato dalle altre discipline scientifiche. L’uomo, abbandonate le illusioni del passato, può ricoprire un nuovo e diverso ruolo rispetto a quello, mortificante, di ingranaggio, assegnatogli dalla vecchia fisica.

Giovanni Monastra


Tag inseriti dall'utente. Cliccando su uno dei tag, ti verranno proposti tutti i post del blog contenenti il tag. a sua immagine e somiglianza

permalink | inviato da houseofMaedhros il 12/3/2008 alle 20:13 | Leggi i commenti e commenta questo postcommenti (1) | Versione per la stampa


19 febbraio 2008

PER UNA COSMOLOGIA DELLA CREAZIONE

La crisi del pensiero scientifico che si produsse a cavallo degli inizi del secolo di cui noi stiamo vivendo gli estremi scorci rappresentò, nell'evoluzione moderna delle scienze positive - ma non solo in quelle, potremmo aggiungere - un rivolgimento di coscienza da potersi solo confrontare con la tremenda bufera che insanguinò la storia degli uomini e dei loro idealismi, all'epoca della rivoluzione francese, esattamente un secolo prima. Può darsi che, in futuro, vorremo occuparci su queste pagine del maestoso travaglio attraverso il quale la scienza laica e deterministica - nata dalla ferrea logica di un genio della teoria, Isacco Newton, e dalla intraprendente lucidità di un consumato sperimentatore, Galileo Galilei - ebbe a partorire, a sua volta, i propri numerosi e recalcitranti rampolli: la Relatività speciale, la Meccanica Quantistica, la Relatività Generale, il Principio d'Indeterminazione (1). Per ora, intendiamo limitarci a portare il discorso su quella che, in fondo, nel campo astronomico, può ben venir considerata la più imbarazzante implicazione. Contro la ferma convinzione di aver sempre vanificato lo spauracchio del dogma riguardante ogni indimostrato atto creativo per l'Universo, ecco infatti che, Con la caduta irrimediabile dei Concetti di assolutezza e di autonomia dello spazio e del tempo, e sotto l'inesorabile spinta delle prove sperimentali e del calcolo, la scienza è stata costretta a prender di nuovo atto dell'esigenza di limitare l'eternità apponendole un istante iniziale, sì che il tremendo compito di dover in qualche modo «spiegare» la creazione del Cosmo si è oggi affermato Con tale irriducibile evidenza da esser giunto a costituire, forse, il principale - se non unico - banco di prova sul quale hanno agio di confrontarsi le più promettenti teorie di fisica interdisciplinare. Quello che fu, molto presumibilmente, lo scenario offerto dall'Universo nel corso delle sue ère più remote; la circostanza indiscussa per la quale, risalendo fin alle primissime epoche cosmiche, la materia e la radiazione dovettero presentarsi in una correlazione reciproca ben diversa da quella che noi oggi riscontriamo fra di esse; l'inevitabile conseguenza che, alle sempre più ridotte dimensioni della propria scala metrica, l'Universo sia andato pervadendosi di energie progressivamente crescenti fino al raggiungimento del supremo limite rappresentato dall'indistinta miscela di fotoni, quarks, neutrini, elettroni, con la quale le attuali teorie ritengono di descrivere le componenti elementari della realtà fisica; tutto questo è stato da noi stessi accennato in un precedente servizio nel quale, altresì, veniva adombrato un assai peculiare modo di intendere il comportamento fisico assunto dalla natura in relazione alla presenza stessa dell'uomo (2). Nel suddetto articolo, le vicende che si ritiene abbiano accompagnato il verificarsi del big-bang cosmico furono tratteggiate nelle loro linee essenziali. Il lettore che lo desideri, vi troverà comunque uno scenario che, ormai, può definirsi «classico. a tutti gli effetti, in quanto le condizioni che esso esprime sono soltanto quelle deducibili dalla rigorosa applicazione della Relatività Generale e della Elettrodinamica Quantistica alle interazioni fra particelle. L'adeguatezza di codeste teorie, andando a ritroso nel tempo, non si estende però al di là dei primi 10-35 secondi, allorché l'Universo non aveva presumibilmente raggiunto le dimensioni di un nucleone (3), e la sua densità d'energia si aggirava intorno ai 1019 milioni di elettron per Volt per centimetro cubo: è a questo punto che si comincia a parlare di singolarità fisica dell'istante iniziale, e che si pone il grave quesito della «creazione». Tuttavia, i fisici ritengono che, se si pensa all'Universo come ad un complesso autonomo ed autoconsistente - il cronotopo - nel quale la comune metrica dello spazio e del tempo debba apparire fisicamente interconnessa, allora l'adozione di un'adeguata teoria microscopica dovrebbe finir col far svanire il problema dell'inizio del tempo (e dello spazio) riducendolo in tutto ad un «falso» problema.

Sotto questo punto di vista, diviene possibile che la pretesa singolarità dell'inizio cosmico non vada considerata come qualcosa di più «singolare» - ad esempio - dei poli della Terra ove, appunto, le coordinate geografiche svaniscono senza che, per questo, la perfetta equivalenza di quei punti a tutti gli altri ne venga minimamente inficiata. In altri termini, appare più razionale scorgere in ogni singolarità fisica altrettanti elementi di debolezza della teoria applicata, piuttosto che una reale, strana proprietà della natura. E perciò, parlare di un atto creativo per l'Universo - nella comune accezione del termine - è cosa legittima solo se la si pensa riferita ad una ben separata individualità spaziale e temporale, giacche - nel nostro mondo sperimentale - sappiamo ben distinguere fra queste due componenti del cronotopo.

Ma allorché, nei primissimi istanti, la realtà cosmica fu rappresentata da condizioni fisiche eccezionali e peculiarissime, diviene plausibile supporre che la differenziazione dei ruoli fra lo spazio e il tempo non fosse ancora un fatto acquisito, almeno in modo stabile. Di conseguenza, il voler estendere a quelle condizioni le leggi relativistiche della gravitazione può essere un non senso; come un non senso diviene il significato di tempo cronologico, avanti che tale ente fosse emerso dall'indistinto crogiolo del cosmo.

Non si può pretendere di trovare qualcosa «più a nord del polo nord» ma bisogna, piuttosto, abolire il concetto convenzionale di polo nord.

Nondimeno esistono - oltre a quella inerente la singolarità iniziale - numerose altre problematiche che la cosmo- logia classica del big-bang non si è dimostrata in grado di giustificare. Una di esse - e, forse, la più grave - è connessa all'aspetto perfettamente uniforme, isotropo e omogeneo che, su grandissima scala, l'Universo oggi esibisce. È vero che il fluido cosmico, oltre che in materia diffusa e radiazione di fondo, appare oggi aggregato in ammassi di stelle, in galassie e, anche, in ammassi e superammassi di galassie; però nel complesso la distribuzione della materia e della radiazione, nello spazio in espansione, obbedisce - entro qualche parte su diecimila - ad una rigorosa parvenza di omogeneità che deve pur aver avuto una qualche remota motivazione.

Tutti i cosmologi sono concordi nel far risalire i meccanismi germinativi delle galassie, e delle loro associazioni, all'evoluzione di indispensabili inomogeneità iniziali presenti nel fluido cosmologico. Quello che non si comprende bene è come sia stato possibile, in uno spazio in espansione decelerata, che i processi accompagnanti la condensazione delle galassie possano essersi svolti con le stesse, identiche modalità e risultati in ogni angolo dell'Universo.

Di sicuro, ad una determinata epoca del passato, l'espansione procedette ad un tasso talmente alto da imprimere alle diverse parti del cronotopo recessioni reciproche più rapide della velocità stessa della luce. Poiché nessuna relazione materiale, o radiativa, può intercorrere fra osservatori posti in moto relativo superluminale, ne viene di conseguenza che qualunque siano stati i meccanismi che hanno agito sulle inomogeneità cosmologiche delle prime età - radiazione fotonica o, come meglio si ritiene, radiazione neutrinica (4) - essi non ebbero facoltà di agire simultaneamente su tutto il fluido cosmologico, ma avrebbero bensì potuto agire entro «orizzonti. circoscritti di spazio». Il problema dell'orizzonte è, per l'appunto, una seconda assillante difficoltà concettuale che, nella visione cosmologica classica, va ad affiancare quella della singolarità iniziale.

Un terzo motivo di perplessità i cosmologi lo ritrovano nella circostanza che, a dispetto dei più accaniti e rigorosi sondaggi in profondità nello spazio, non è possibile dedurre se le galassie vanno addensandosi, in numero, seguendo leggi prospettiche diverse da quelle imposte dalla geometria euclidea la quale, com' è noto, è atta a descrivere quello che convenzionalmente viene definito «spazio piatto»O «a curvatura nulla».

È anche noto che - nell'interpretazione relativistica della Gravità - c'è da supporre che la geometria generale dell'Universo sia strettamente condizionata dall'entità del complesso ponderale e radiativo del fluido cosmologico. Pertanto, la geometria generale del continuo spazio-temporale risulterà «aperta» o «chiusa» a seconda che il contenuto del Cosmo eserciti una minore o maggiore azione gravitazionale, col risultato di frenare nel tempo, e con efficacia proporzionale, lo stesso tasso di espansione (5).

Il futuro che ci attende - espansione illimitata, o raggiungimento di una massima dilatazione di scala seguita poi da una fase di collasso progressivo - è legato, dunque, all'entità del contenuto cosmico; purtroppo, finora nessuno ha potuto dedurre per via sperimentale qualcosa di certo - in un senso o nell'altro - poiché tutte le apparenze suggeriscono che il cronotopo sia da considerarsi pressoché piatto, e posto in dilatazione alla medesima, identica velocità di fuga stabilita dall'intensità del campo gravitazionale complessivo.

In questa singolare coincidenza, fra l'altro, rintracciammo un elemento a favore del Principio Antropico; e in effetti è indubbio che una curvatura zero da attribuire alla geometria dell'Universo debba rappresentare un buon rompicapo per i cosmologi i quali lo considerano oggi un problema molto serio, che è appunto definito il problema della curvatura. E c'è di più.

Maneggiando le loro equazioni, agli studiosi è stato giocoforza constatare che il bilancio dell'energia presumibilmente dissipata nel passato dall'Universo non torna con quella che oggi è possibile constatare. L 'Universo, in qualità di sistema fisico autonomo in evoluzione - in ossequio alla 3a legge della termodinamica - stimola il proprio contenuto energetico potenziale a trasformarsi in forme non ulteriormente degradabili (ad esempio, producendo calore, o radiazione); tuttavia i dati sperimentali hanno accertato che, sotto tali forme, esiste una quantità d'energia considerevolmente più alta di quanta sarebbe lecito aspettarsi dai processi di spianamento delle disomogeneità cosmologiche originarie (6).

Anche sotto questa particolare angolazione, la teoria «classica» del big-bang non sembra in grado di offrire le necessarie garanzie quantitative.

Esiste dunque, - e il lettore se ne sarà ben persuaso - più di una motivazione per ritenere che la situazione, all'atto della grande esplosione iniziale, non fosse esattamente quella che è prevedibile adottando in modo esclusivo i criteri della Relatività Generale.

Gli studiosi sono oggi orientati ad ottenere gli avalli concettuali indispensabili ad una descrizione completa ed affidabile degli istanti che presiedettero all' emersione del Cosmo andandoli a ricercare nel- l'ambito della moderna fisica delle altissime energie, e nelle più promettenti teorie unificatrici.

oDio non gioca ai dadi» era l'aforisma prediletto da Einstein per affermare il proprio scetticismo nei confronti delle teorie indeterministiche, allora emergenti. D'altra parte, concetti come quelli evidenziati dall'Heisenberg sul fatto che ogni operazione sperimentale perturba lo sperimentabile, impedendone di necessità la rigorosa determinazione delle proprietà dinamiche e topologiche, si sono manifestati fondamentali nell'analisi dei fenomeni microscopici.

 

Le teorie indeterministiche hanno consentito una trattazione originalissima delle relazioni fra particelle con l'associare, a ciascuna di esse, la doppia identità di corpuscolo e di onda di probabilità (7). In questa chiave, si sono resi perfettamente descrivibili gli orbitali elettronici che circondano i nuclei degli atomi, le proprietà spettroscopiche degli elementi, e tutto quel complesso di interazioni fra particelle che si manifestano attraverso le quattro forze fondamentali, fonte e ragione della multiforme varietà del mondo naturale.

La concezione relativistica della gravitazione rappresenta, in realtà, un'interpretazione pura- mente geometrica delle proprietà del cronotopo. Essa si adatta in modo perfetto ai fenomeni che si svolgono su scala cosmica e, comunque, macroscopica. Non è concepibile - né ragionevole - continuare ad intenderla insostituibile allorché si vanno a considerare situazioni fisiche nelle quali le ragioni su cui poggiano le teorie di unificazione delle forze, e i principi indeterministici, assumono una netta prevalenza.

La dimostrazione che i differenti ruoli giocati attualmente dalle forze fondamentali - la forza elettromagnetica, la forza debole, la forza nucleare e la forza gravitazionale - è il prodotto del progressivo decadimento energetico conseguito all'espansione dell'Universo, costituisce oggi una verità che ben pochi sarebbero disposti a confutare. La recente prova dell'unificabilità, a circa 100 GeV (milioni di elettronvolt) di energia, delle prime due interazioni - che sono le meno intense, in quanto esse presiedono rispettivamente all'elettromagnetismo ed alle relazioni fra elettroni e fra neutrini - ha condotto a riconoscere nella forza elettrodebole l'unico partner da affiancare ormai alla gravità ed alle forze nucleari (8). Le teorie prevedono però che non siano necessari meno di 1014 GeV perché possa verificarsi la confluenza della forza elettrodebole in quella nucleare: a questo tipo più semplificato di descrizione stanno tentando di pervenire i filoni attualissimi di ricerca che hanno dato nascita alla Cromodinamica Quantistica e che prevedono, fra l'altro, l'esistenza dei quarks e l'instabilità del protone.

Mai sarà concesso agli uomini di realizzare macchine tanto potenti da raggiungere le medesime soglie energetiche alle quali indubbiamente l'Universo pervenne al momento in cui la sua età non superava i 10-34 secondi di tempo, e le sue dimensioni erano di ben 20 ordini di grandezza al di sotto di quelle di un protone!

La migliore prova - e l'unica possibile, d'altronde - alla giustezza delle teorie unificatrici delle forze, oggi di moda, può provenire, dunque, soltanto dal Cosmo dei primissimi istanti attraverso un'adeguata strategia di verifica delle proprietà fenomeniche che lo stesso Cosmo attualmente manifesta.

L 'antico sogno di Einstein di riuscire a giungere ed una trattazione unificata della forza di gravità -la più debole, ma a raggio d'azione illimitato - con tutte le altre si basava su di una tattica estensiva dell'interpretazione geometrica del cronotopo, simile concettualmente a quella che aveva dato i fruttuosissimi risultati della Relatività Generale. Lo scienziato di Ulm intendeva, in sostanza, ricondurre le forze alla Gravità, prescindendo peraltro da qualsiasi considerazione energetica.

La tattica adottata dai fisici delle alte energie si è dimostrata diversa in quanto, tenendo conto dell'influenza con la quale l'energia può agire sui caratteri distintivi delle particelle, essa ha consentito di prospettare una trattazione nella quale l'esistenza di un'unica «superparticella» è in grado di dar luogo, volta a volta, a tutte le proprietà quantistiche che caratterizzano l'attuale, pletorico zoo di particelle note, In una superparticella confluisce dunque anche il previsto gravitane delle teorie quantistiche della gravità, in perfetta simmetria dì comportamento nei confronti di tutte le interazioni naturali (9).

La gravità viene, in tal modo, assorbita dalla teoria unificatrice, e non viceversa; essa finisce col perdere i propri connotati peculiari cosicché la teoria stessa porta il nome di Supersimmetria e, anche, di Supergravità.

La trattazione matematica si è dimostrata, da parte sua, elegante e convincente nel suggerire che la migliore validità della Supersimmetria la si ritrova inquadrandola in uno spazio ausiliario dotato di 11 dimensioni, fra le quali, naturalmente, vi è la coordinata temporale. Le implicazioni, per la parte cosmologica, di un simile modo di vedere, sono veramente cospicue: se ci fu un'epoca nella quale la densità d'energia dell'Universo fu abbastanza alta da raggiungere i 1019 GeV per cmc, allora si verificò di certo uno stato di perfetta supersimmetria cosmica richiedente uno spazio 11-dimensionale, nel quale la forza di gravità, come interazione tipica, scomparve e il tempo perse il proprio ruolo distintivo nei confronti delle altre dimensioni.

In assenza dì gravità, l'Universo del momento rappresentò qualcosa di profondamente diverso dallo scenario che è descrivibile con la Relatività Generale poiché in esso, fra l'altro, qualsiasi proprietà ponderale non aveva ancora assunto significato. Prima dei 10-35 secondi dì età, pare che il Cosmo fosse esclusivamente pervaso di energia. Energia resa oltremodo addensata, a causa dell' estrema limitatezza della scala dimensionale che si aggirava intorno a quella (10-23 cm!) per la quale - a norma di alcune dimostrazioni dovute, a suo tempo, al Planck - si deve ammettere che le influenze indeterministiche divengono nettamente prevalenti (10).

In sostanza, lo scenario dell'affioramento del cosmo, offre la visione di uno spazio pluridimensionale pervaso da onde di probabilità occultanti le superparticelle delle teorie di unificazione. Quest'ultime non possono dirsi ancora reali, dato che è privo di senso assegnar loro una qualsiasi individualità duratura tranne quella, peraltro effimera, che potrebbe conseguire dalle istantanee presenze della coordinata temporale nel continuo rimescolamento dei ruoli dimensionali provocato dalle fluttuazioni quantistiche dell'iperspazio.

Il Cosmo, prima dell'evento drammatico che lo avrebbe reso manifesto nel tempo e nello spazio a noi familiare, costituì dunque una «concentrazione di energia probabilistica» governata in modo esclusivo dalle leggi di indeterminazione. Non esisteva materia pesante nel senso comune del termine e, di conseguenza, l'iperspazio era da considerarsi «vuoto» .

Ma - e il lettore lo comprenderà benissimo - si trattava, per la verità, di un vuoto assai strano giacché l'energia contenuta lo rendeva altamente instabile e, alla stregua di qualsiasi sistema fisico autonomo, il Cosmo, prima della «creazione», tendeva in modo irresistibile a raggiungere i più bassi livelli energetici possibili.

È ormai una decina d'anni che fra gli astrofisici circola una nuova teoria cosmologica la cui sistematizzazione definitiva è dovuta allo statunitense Alan Guth: si tratta della cosiddetta Teoria Inflazionaria (11), Nella sostanza, la teoria afferma che il decremento energetico dell'Universo ebbe luogo, ad un determinato momento, grazie all'inevitabile rottura della supersimmetria fisica preesistente.

Fu un evento esplosivo, apocalittico, in un certo senso affine al congelamento istantaneo di un grande lago superraffreddato. Il decadere della perfetta equivalenza dei ruoli provocò l'istantanea separazione del tempo dalle coordinate spaziali, e ciò fu motivo sufficiente per rendere duratura I 'Influenza delle superparticelle le quali, da virtuali, si tramutarono in particelle reali dotate di inconfondibili proprietà ponderali.

Da quell'istante, la forza gravitazionale acquistò significato e l'Universo cessò di essere governato dalle leggi indeterministiche.

 La Teoria Inflazionaria si è ripromessa di analizzare in dettaglio codesto singolare meccanismo di trasformazione. Essa fa vedere che il solo modo possibile per ridurre l'energia di natura indeterministica che lo permeava, l'Universo lo conseguì attraverso l'inflazione ovvero la dilatazione imponente delle proprie dimensioni che, in maniera pressoché istantanea, si trovarono accresciute di almeno 50 ordini di grandezza!

Ma la mostruosa enfiagione del corpo cosmico non poteva venir condivisa integralmente dalla molteplicità dimensionale della metrica, in quanto la teoria afferma che, requisito essenziale per la realizzazione di uno stato supersimmetrico è che le previste 11 dimensioni (compreso il tempo) si comportino in modo reciprocamente identico. La differenziazione delle proprietà precipue della coordinata temporale da quelle spaziali fu dunque una delle conseguenze ineluttabile della perdita della supersimmetria. L' evento comportò la nascita del tempo e rappresentò il vero atto della «creazione» nel senso che comunemente siamo soliti intendere. Ma non basta.

Il nostro mondo ci si mostra mediante solo tre dimensioni spaziali. E le altre? Esistono al- cune opinioni in proposito per dimostrare l'impossibilità che le metriche supplementari abbiano potuto condividere, nel cronotopo, l'impressionante dilatazione di scala subita dalle altre quattro. La perdita subitanea della supersimmetria coinvolse necessariamente anche la rottura di equivalenza con le restanti dimensioni spaziali poiché, in caso contrario, la forza di gravità - che agisce sulle masse - non si sarebbe differenziata dal complesso delle altre forze, che agiscono sulle cariche.

Di conseguenza, come una corda la quale - se si prescinde dallo spessore - ci appare un ente monodimensionale lineare, è possibile che noi viviamo in una realtà nella quale la presenza delle altre dimensioni ci sfugge grazie all'estrema esiguità della loro scala, rimasta immersa - è da supporre - nelle fluttuazioni indeterministiche della fase preinflattiva. Dunque, l'èra adronica, leptonica, fotonica e barionica dell'Universo, debbono considerarsi precedute, tutte, da due altre ere di genere particolarissimo, assegnate dalle più recenti teorie: l'era dello stato supersimmelrico e l'èra inflattiva (12).

Le stesse teorie fanno poi vedere che, a causa delle fluttuazioni originarie dell'iperspazio 11-dimensionale, la perdita della simmetria non procedette in modo rigorosamente simultaneo. Al contrario, è presumibile che - a somiglianza del processo di congelamento progressivo di un liquido il quale lascia intravedere grumi di cristallazione avviata in seno al liquido ancora sopraffuso - si sia creata un molteplicità di cronotopi a simmetria spezzata che finirono poi per evolvere, ciascuno in modo autonomo.

C'è da riconoscere che la Teoria Inflattiva si presta in modo sorprendente alla soluzione dei diversi problemi cosmologici che angustiano la concezione «classica» del big-bang. In primo luogo, con l'attribuire un processo di dilatazione molto spinta alla metrica del cronotopo si rende comprensibile il fatto che la curvatura geometrica di quest'ultimo possa, ora, risulta- re inapprezzabile, allo stesso modo che la superficie di un pallone si appiattisce al crescere della dilatazione del suo volume.

In secondo luogo, l'imbarazzante quesito consistente nella notevole quantità d'energia dissipata dall'Universo trova anch'esso la propria giustificazione, giacche tale energia non fu fornita, come si presumeva, dai processi che avviarono, a loro tempo, la condensazione delle galassie, ma piuttosto ebbe origine attraverso l'imponente liberazione dell'energia quantistica dello stato preinflazionario.

Terza, e ultima considerazione: la prospettiva che il cronotopo che identifica il nostro universo sia solo uno dei tanti domini distaccatisi all'atto della rottura delle simmetrie originarie, elimina il problema dell'«orizzonte», in altre parole, elimina la necessità di ricercare pretese connessioni fisiche di causa-effetto fra domini, dato che ciascuno di essi può venir riguardato alla stregua di un «buco-nero», privo definitivamente di qualsiasi attinenza con gli altri (13).

Da questa considerazione emerge la possibilità di imporre un limite superiore alle dimensioni del nostro universo particolare: affinché esso si sia mantenuto causalmente connesso durante tutta la propria esistenza è necessario che la radiazione luminosa l'abbia costantemente pervaso. Perciò la sua estensione non può risultare maggiore di 20 miliardi di anni luce, che rappresenta all'incirca lo spazio entro il quale i Cotoni della luce hanno potuto diffondersi, a partire dal termine della fase inflattiva. Tale spazio viene a rappresentare perciò anche il campo di validità delle nostre leggi fisiche: per gli altri domini spazio-temporali le cose non andrebbero necessariamente allo stesso modo, mancando per essi, come si è detto, qualsiasi connessione causale reciproca col nostro.

E, a questo proposito, è opportuno evidenziare la specifica qualità della Teoria Inflattiva nel ridefinire il Principio Antropico dell'universo. Se il Principio Antropico - considerata l'inammissibilità di ricercar cause efficienti al di fuori dell'Universo - si ripromette, nella sostanza, una giustificazione «a posteriori» delle leggi che reggono la fisica, invocando - a spiegarne la razionalità - una sorta di effetto di retroazione temporale da addebitare agli stessi risultati dell' evoluzione cosmica, la teoria del Guth, dal canto suo, si presta ad interpretare nel modo più semplice il quesito «perché l'Universo ci appare razionale?».

La risposta potremmo rinvenirla nel fatto che noi - organismi intellettivi - non siamo, in fondo, che il prodotto evolutivo di un dominio spazio-temporale «giusto»; il risultato, cioè, di una selezione probabilistica che potrebbe aver disseminato un numero sterminato di «universi paralleli» dotati di leggi di governo assai dissimili e, pertanto, non intelligibili alla nostra razionalità.

Giunti all' epilogo di questa nostra dissertazione, vale la pena di riconoscere che le risorse umane destinate al necessario cimento dei numerosi quesiti che le teorie correnti si stanno ponendo, sono tutt'altro che adeguate alla bisogna. Esse, con ogni verosimiglianza, non lo saranno nemmeno in futuro, considerati gli scarsi livelli energetici raggiunti dagli attuali acceleratori di particelle, le armi più valide che consentano al ricercatore di demolir la materia onde esaminarne l'intima struttura (14).

Alla fin fine, va riconosciuto che lo stato Cosmologico di super densità, a livelli energetici incredibilmente alti, ed a dimensioni infinitamente piccole - quello stato che, in altri termini e sotto altre concezioni, veniva considerato un'indesiderata singolarità fisica, in quanto non suscettibile di descrizione da parte delle «normali» leggi di natura - si presenta, in fondo, al cosmologo d'oggi, sotto il lusinghiero apparato di un insieme di condizioni assai significanti che la forza delle teorie a disposizione può dimostrarsi in grado di interpretare.

E con ciò, si spera esorcizzato una volta per tutte il qualunque senso d'inquietudine riesca ancora ad emanare dal discorso intorno all'attimo famigerato in cui l'Universo emerse col proprio tempo e con il proprio spazio.

Vincenzo   Croce

pubblicato per la prima volta in "Abstracta" n° 30, Ottobre 1988




Tag inseriti dall'utente. Cliccando su uno dei tag, ti verranno proposti tutti i post del blog contenenti il tag. Fiat Lux

permalink | inviato da houseofMaedhros il 19/2/2008 alle 8:35 | Leggi i commenti e commenta questo postcommenti (8) | Versione per la stampa


12 febbraio 2008

L'UOMO E L'UNIVERSO

Il Mondo nasce libero, il Mondo nasce ordinato.
Ed il suo ordine si esplica attraverso armonie, forme archetipe operanti semanticamente, e gerarchie di livello.

Ma non si può in franchezza negare che un cospicuo numero di umani discenda dalle scimmie. Putativamente!

L’ aspetto più incomprensibile dell'Universo - ebbe a dire una volta Einstein - è il fatto stesso che esso sia comprensibile". Per la verità in questo aforisma è racchiuso un concetto che va ben al di là dell'apparente
boutade scientifica di un uomo di studio il cui campo di lavoro era rappresentato dalla realtà cosmica, dalle sue leggi e dal suo comportamento. In verità, la ricerca volta all'osservazione analitica dei fenomeni naturali rappresenta la necessaria premessa per la deduzione di leggi comportamentali che abbiano validità costante nel tempo e nello spazio e sulle quali possano poggiare i fondamenti per la previsione di nuovi fenomeni fisici. In un'operazione del genere, l’unica condizione indispensabile che si pone è che il comportamento naturale del mondo fenomenico riesca ad adattarsi a quei principi di razionalità che caratterizzano l’attività della ragione umana. L' affermazione potrebbe, a prima vista, sembrare gratuita e, forse, un po' lapalissiana visto che l'uomo, con le proprie doti analitiche e ragionative non è altro che un prodotto di quel; mondo fenomenico che è chiamato ad interpretare; e sembrerebbe, anzi, cosa sorprendente e bizzarra una situazione nella quale la ragione umana non riuscisse a comprendere la natura nella quale essa opera e dalla quale, per lenta evoluzione, è stata generata. Peraltro, la questione non si dimostra in fondo tanto pacifica quanto potrebbe apparire. Alla luce delle scoperte e degli sviluppi teorici più avanzati che, insieme e in armonia con gli sviluppi della fisica delle alte energie, la cosmologia moderna è riuscita a conseguire, si è andato infatti diffondendo nell'ultimo decennio un movimento scientifico di opinione che vede coinvolti numerosi uomini di scienza, fra i più insigni, in una revisione ardita ed eccitante di quelli che potrebbero definirsi i principi generalissimi delle causalità cosmiche. Fondamentalmente, la domanda che costoro si pongono è: esiste una qualche motivazione plausibile per la quale l’Universo debba comportarsi in un modo che sia analizzabile dalla ragione umana? E se le leggi fisiche che lo riguardano sono state elaborate dalla ragione dell'uomo, come avrebbero potuto, esse stesse, condizionare fin dall'origine la nascita e l'evoluzione dell'Universo futuro? Quesiti doverosi e profondi, come è agevole comprendere; quesiti da far «tremare le vene e i polsi», di chiunque voglia azzardarsi a discettare sulle finalità ultime dell'Universo e, in particolare, delle sue relazioni col fenomeno-uomo.

Le ere cosmiche

Le dimensioni dell'Universo non erano ancor giunte a superare quelle di un protone (10-13 cm) - pur trovandosi esse in espansione esplosiva - che il rapido declino termico  cominciava già a consentire i primi processi di trasmutazione in quarks ed antiquarks (con una lieve eccedenza dei primi) da parte delle entità più elementari che la fisica oggi conosca: i cosiddetti bosoni, particelle descrivibili quantisticamente in modo affine ai fotoni della luce. Tali processi condussero ad almeno due eventi importantissimi. Le reciproche annichilazioni fra particelle ed antiparticelle, finirono per saturare di fluido radiante eccezionalmente denso (il cosiddetto fire-ball o sfera di fuoco) il minuscolo universo del momento; in secondo luogo, al termine degli eventi di annientamento fra le coppie quark-antiquark sopravvisse un certo numero di quarks i quali, in aggruppamenti ternari di differente disposizione, andarono a formare protoni e neutroni, vale a dire gli enti basilari per la differenziazione chimica della materia cosmica. poiché siffatti enti  identificano i nucleoni i quali, come è stato precisato, interagiscono attraverso la forza nucleare forte, la prima età dell'Universo viene anche definita èra adronica ( da hadros = forte ) in quanto al termine di essa – vale a dire circa alla fine del primo secondo del tempo cosmico tutti i mattoni della materia universale erano ormai stati prodotti e, da quel momento, non una sola unità venne più ad aggiungersi, o a mancare, al patrimonio delle particelle fondamentali così tanto in fretta realizzato. I fisici hanno valutato che il numero delle particelle dotate di massa, residue ai processi di annichilazione iniziali, debba farsi ascendere all'ordine di 1080 numero che, come avremo occasione di vedere, sembra rivestire un carattere peculiare. Nell'ambito della sfera di fuoco permeante il giovanissimo Universo altri eventi di fondamentale importanza avevano nel frattempo iniziato a verificarsi.

I fotoni altamente energetici della radiazione gamma davano infatti luogo ad intensi processi di materializzazione, e successiva annichilazione, fra coppie elettroniche e neutriniche, le quali, anch'esse, allorché la temperatura fu scesa abbastanza (intorno al miliardo di gradi) si stabilizzarono in quantità andando a formare, insieme ai nucleoni, quel genere di miscuglio di particelle elettricamente cariche che i fisici definiscono plasma nucleare.

In tal modo, al termine dei primi 3 secondi, con l'arresto dei processi di materializzazione dei neutrini e degli elettroni una seconda èra cosmica veniva a concludersi, quella leptonica, così detta in quanto le particelle suddette rientrano nella famiglia dei leptoni (da leptos = leggero), le cui forze d'interazione -nucleare debole ed elettromagnetica - rispetto alle forze nucleari forti si distinguono per la loro minore intensità, per il più largo raggio d'azione e per manifestarsi col duplice carattere attrattivo e repulsivo. Da questo momento, fin verso il compimento del suo mezzo milione di anni di età, l'Universo in espansione si mantenne permeato di plasma ribollente in seno al quale, favorite dalle altissime temperature - peraltro in rapido declino con l'accrescersi simultaneo della scala dimensionale del Cosmo - presero inizio i primi, timidi processi di sintesi termonucleare fra protoni e neutroni con formazione di nuclei d'elio, di deuterio, di litio, di berillio e qualche altra sostanza semplice, che peraltro l’intensissimo bombardamento da parte della radiazione gamma immediatamente tornava a dissolvere.

La funzione prevalente esercitata durante questo periodo di tempo dalla forza elettromagnetica, tramite i fotoni della luce, determina un terzo importante periodo cosmico che è quello dell’era fotonica.

Dopo che la temperatura della sfera di fuoco fu discesa al disotto della soglia dei 3-4000°C, la fotodissociazione dei nuclei atomici in formazione cessò, e dall'èra fotonica emerse un oceano di nuclei di idrogeno (semplici protoni), nonché una piccola quantità di nuclei di elio (associazioni di una coppia di protoni con uno o due neutroni) pari al 4% del totale.

Gli elettroni liberi andarono ad aggregarsi con i nuclei così formati dando luogo ad edifici atomici elettricamente neutri dei quali essi avrebbero definitivamente seguito le ulteriori vicende fisiche. In tal modo, essi si svincolavano da ogni successiva interazione con la radiazione.


È a questo stadio evolutivo che può farsi risalire l'origine della materia così come essa oggi ci si manifesta; tale evento segna la fine dell'era fotonica e l'inizio di quella nella quale stiamo ancora vivendo, l’era barionica (da barys = pesante), così detta perché, con l'intervento risolutivo della forza di gravità in luogo di quella elettromagnetica, in essa si determinerà e si svolgerà, nel tempo a venire, l'evoluzione fisica della materia fino alla generazione delle galassie e delle stelle.

La radiazione, da parte sua, seguendo alla stregua di un fluido gassoso le vicende dell'espansione universale, sarà destinata a rarefarsi e a spostare la propria lunghezza d'onda caratteristica fin nella banda elettromagnetica delle microonde dove, nel 1965, venne per la prima volta rintracciata casualmente, ed identificata, dai fisici A. Penzias e R. Wilson.

La scoperta di questo genere di radiazione rappresenta la faccia residua - diremmo ormai fossile - ma eloquentissima dell’antica presenza della sfera di fuoco nata dal big-bang iniziale; essa ha troncato con lo schiacciante peso dell'evidenza ogni ulteriore controversia tendente a negare l'origine temporale dell'Universo. Oggi sappiamo con certezza, giacche un insieme di prove sperimentali lo attesta in modo indiscutibile, che il complesso del mondo fenomenico che ci attornia è sorto assai presumibilmente fra i 16 e i 20 miliardi d'anni or sono. L'incertezza è unicamente connessa alla dubbia valutazione dell'entità ponderale e complessiva dell'Universo; peraltro non sussistono esempi di oggetti lontani, quasar e radiogalassie, cui possa attribuirsi una distanza in anni luce superiore a quei valori; né si conoscono stelle, per quanto vecchie, la cui età superi con certezza quei valori stessi.

 

LE QUATTRO FORZE UNIVERSALI

Giova qui ricordare che il funzionamento della macchina cosmica si basa essenzialmente sull'intervento differenziato di quattro forze fisiche fondamentali, di intensità decrescente: la forza nucleare forte che presiede all'aggregazione dei nucleoni (protoni e neutroni) in seno ai nuclei atomi; la forza nucleare debole che presiede alla stabilità dei nuclei atomici e ne governa l'eventuale decadi- mento radioattivo; la forza elettromagnetica deputata ad esercitare il necessario vincolo che mantiene aggregati gli elettroni ai nuclei degli atomi, nonché le molecole fra loro, e ne regola le transizioni energetiche dalle quali la radiazione si genera e si diffonde; infine la forza gravitazionale caratterizzante la proprietà attrattiva di ogni corpo che sia dotato di massa inerziale. Onde fornire un'idea della differente intensità con la quale codeste forze - o interazioni fisiche - si manifestano basterà far notare che, assunta ad unità la forza nucleare forte, quella elettromagnetica è circa 10-2 volte più debole, mentre quella gravitazionale lo è di ben 40 ordini di grandezza (10-40). In realtà, i fisici delle alte energie hanno ragione di ritenere che, sotto le eccezionali condizioni che caratterizzarono i primi istanti dopo il big-bang (condizioni di altissima energia che, solo in parte, possono venir riprodotte per brevissimi istanti nelle più poderose macchine acceleratrici possedute dai moderni laboratori) le diverse forze naturali che oggi presiedono alla varietà fenomenologicadella natura fossero tutte raccolte e descritte da un'unica superforza universale dalle proprietà piuttosto sconosciute. Va notato che è stato proprio lavorando nella direzione di un' interpretazione unitaria della fisica che, ad esempio, Steven Weinberg dell'Università di Harvard e Abdus Salarn di Trieste hanno introdotto quel concetto di GUT (Grandi Teorie di Unificazione) invano ricercato da Einstein nel tentativo di associare la visione relativistica dell'Universo con le proprietà microscopiche della materia; e che il nostro Carlo Rubbia ha conseguito il suo Premio Nobel dimostrando per via sperimentale (naturalmente sotto speciali condizioni di laboratorio) l'identità della forza nucleare debole con quella elettromagnetica, primo validissimo passo di conferma alle GUT. Le leggi generali e comuni della fisica si dimostrano peraltro in grado di descrivere a ritroso le tappe evolutive del Cosmo non oltre i suoi primi 10-35 secondi d'età allorché, in un regime termico elevatissimo (1028 gradi centigradi!) è presumibile si sia verificato l'evento che dette origine alla formazione delle particelle elementari che sarebbero state destinate a confluire nei futuri nucleoni.

  

 

Perché l'Universo è ordinato?

 

Il quadro evolutivo che abbiamo appena delineato è oggi condiviso, senza sostanziali eccezioni, dalla gran parte dei fisici e dei cosmologi. Nondimeno, ad un'analisi comportamentale, si è riconosciuto che esso non riesce a soddisfare alcune considerazioni molto concettuali e abbastanza inquietanti.

In primo luogo, c'è da convenire che il mondo estremamente differenziato che ci circonda sembra turbare quel principio universalmente accettato della termodinamica che, al contrario, afferma come in ogni sistema fisico statistico lasciato in libera evoluzione, i componenti finiscano per raggiungere la più completa uniformità e disordine. Le molecole del profumo contenuto in una boccetta tendono, come sappiamo, a diffondersi nella stanza e giammai, una volta diffuse, le vedremo concentrarsi spontaneamente in nuclei odoriferi separati. Come mai, ci si chiede, le particelle costituenti il fluido cosmico primordiale sono invece andate a confluire in quei grandiosi ammassi originari che sono, appunto, le galassie, quelle formazioni materiali fondamentali tipiche che hanno presieduto al vastissimo accentramento ulteriore della materia in nebulose, stelle, associazioni stellari e pianeti ?

È stato tuttavia fatto notare che è proprio nello scarto venutosi ad accumulare nello stato termodinamico inerente all’attuale livello di differenziazione raggiunto dal Cosmo, nei confronti dell'equilibrio allo stato di uniformità indifferenziata, che va ricercata la motivazione della cosiddetta «freccia del tempo», vale a dire dell' entità che condiziona il regime col quale il cronotopo si sposta lungo la propria coordinata temporale. È evidente che qualora la materia cosmica finisse col raggiungere il livello di uniformità generale sancito dal 3 ° principio della termodinamica, in mancanza di ogni possibile evento trasformativo ulteriore, lo scorrere del tempo verrebbe a perdere qualsiasi significato!

In effetti, il fatto che l'Universo si trovi in espansione altera in modo sostanziale il senso dell'esempio fornito dalla boccetta di profumo giacche, se immaginassimo che le dimensioni della stanza stessero accrescendosi con rapidità maggiore di quella con la quale le molecole odorifere possono diffondersi, constateremmo con facilità che le apparenze sarebbero quelle di un fluido - il profumo - che tende a rimpicciolire il proprio raggio d'azione andando con ciò clamorosamente contro il 3° principio.

Pare quindi che sia allo stato d'espansione cosmologica che debba farsi risalire non solo la realtà della tendenza alla differenziazione e all'ordine, bensì anche alcune altre proprietà fondamentali quale, ad esempio, quella di causalità che vediamo presiedere e governare l'insieme dei fenomeni naturali, biologici compresi, ai quali essa conferisce in definitiva quel crisma di razionalità che ce li rende comprensibili.


Coincidenze cosmologiche

 Alcuni studiosi (il Collins, l'Hawking, tanto per citare) hanno però fatto notare, col calcolo matematico, che il processo iniziale di formazione delle disomogeneità protogalattiche in seno al fluido cosmologico sotto l' azione della forza più debole che si conosca, quella gravitazionale, avrebbe potuto essere innescato solo a patto che la velocità d' espansione della scala spaziale dell'Universo avesse coinciso con la velocità di fuga dal campo attrattivo esercitato nel complesso dal contenuto ponderale del Cosmo.

Ciò vorrebbe significare, sotto altro verso, che l'intensità specifica della forza di gravità o, come si dice, la costante di accoppiamento gravitazionale della materia, si trova in una relazione specifica e determinata con la quantità della materia esistente. Tale punto di vista, per la verità, non giungerebbe del tutto nuovo: agli inizi del secolo, ad esempio, Ernst Mach si dichiarava appunto d' avviso che la forza d' attrazione sperimentata sulla Terra non fosse che il risultato tangibile della presenza di tutte le stelle e galassie esistenti nell'Universo.

E, a tale riguardo, non va dimenticato che alcuni decenni più tardi P.A.M. Dirac, fisico insigne, faceva notare una strana coincidenza numerica: l'inverso del valore della costante d'accoppiamento esprime esattamente la radice quadrata del numero totale delle particelle stabili dotate di massa presenti nell'Universo (che sappiamo aggirarsi intorno a 1080) talché sembrerebbe sussistere effettivamente più d'una prova a favore di una connessione causale sconosciuta fra l'intensità sotto cui si manifesta la forza gravitazionale nella materia e la materia stessa.

Brandon Carter, astrofisico a Cambridge, ha svolto da parte sua alcune interessanti considerazioni riguardo l'entità delle conseguenze con le quali una pur piccola variazione intrinseca della gravitazione si ripercuoterebbe sull’evoluzione fisica delle stelle. Nell'ipotesi che la costante d'interazione fosse stata di un' ordine di grandezza più elevata 10-39 invece che 10-40 nei confronti della forza nucleare forte - non soltanto le disomogeneità cosmologiche eventualmente presenti ai primordi non avrebbero avuto il tempo necessario per dar origine alle galassie avanti che l'Universo stesso finisse per collassare su se stesso, ma le stelle che fossero riuscite nel frattempo a condensarsi, sotto la maggior azione della gravità, avrebbero raggiunto nei loro interni livelli termici ben più elevati di quanto oggi non siano, così da indurle a sviluppare reazioni di sintesi termonucleare molto violente.

In definitiva, si sarebbero sparsamente accesi, nell’Universo, astri caldi, luminosissimi, appartenenti alla classe delle giganti-blu, non legati in quei colossali organismi autonomi che sono le galassie. Bruciando furiosamente il proprio idrogeno, esse si sarebbero esaurite e spente nel breve volgere di qualche decina di milioni d'anni. Nessuna stella di tipo solare o di classe più inoltrata - vale a dire astri a vita lunga del genere delle subnane gialle e nane rosse, capaci di irradiare per decine di miliardi d'anni - avrebbe avuto probabilità di nascere; né, tanto meno, intorno ad astri tanto effimeri avrebbe avuto tempo di stabilizzarsi una sfera ecologica suscettibile di sviluppare, sui lunghissimi tempi richiesti, una qualsiasi evoluzione biologica.

Il contrario, sempre secondo Carter, si sarebbe verificato nell'ipotesi di una forza di gravità più debole di quella che ci è usuale. In tale circostanza, l'Universo sarebbe apparso popolato di piccoli, freddi astri sanguigni, diffusi liberamente in uno spazio destinato ad espandersi in perpetuo. Troppo scarso e debole si sarebbe rivelato l'irraggiamento di codesto tipo di stelle per dar luogo, anche in questo caso, e pur con un lunghissimo futuro a disposizione; ad un ambiente passibile di venir permeato da una vita biologica sviluppata fino alla razionalità.

È certo che pure le altre forze di natura conosciute implichino delle connessioni con la realtà che si rivelano altrettanto critiche quanto misteriose. Si potrebbe osservare che una forza nucleare, anche di qualche punto in percentuale meno forte, non consentirebbe l'associazione fra i protoni; il fluido cosmico consterebbe allora esclusivamente d'idrogeno, le stelle non innescherebbero le normali reazioni di sintesi dalle quali tutti i restanti elementi chimici prendono origine, ma terminerebbero la propria esistenza finendo col collassare rapidamente in nane bianche.

D'altra parte, nella circostanza di una forza nucleare un poco più intensa, già in seno al fluido cosmologico primordiale dell'era fotonica, si sarebbero venute a verificare interazioni intense fra i protoni liberi, cosicché il fluido stesso sarebbe emerso nella successiva era barionica quasi integralmente trasformato in elio.

In entrambe le circostanze, come si vede, la composizione chimica dell'Universo si sarebbe rivelata molto semplice ed uniforme. Da essa non avrebbe giammai potuto trarre origine la ricchissima varietà delle organizzazioni naturali che invece ci circondano con le cristallizzazioni svariatissime presenti nei minerali, con le associazioni molecolari delle lunghe catene proteiche, fino alla miracolosa organizzazione cellulare della materia vivente, alla sintesi dell' attività biologica più eletta rappresentata dall' autocoscienza della mente umana.


Il Principio Antropico

 Ora, la constatazione indubbia che la mirabile e complessa organizzazione razionale del Cosmo viene a poggiare in definitiva su un numero assai ristretto di condizioni basilari -pur tuttavia determinate, quest'ultime con un esiguo margine di tolleranza - implicherebbe che la visione che noi abbiamo della realtà non sia che il prodotto di un raffinato gioco di equilibri estremamente critici.

Questo, in altre parole, equivale ad asserire che le apparenze sembrano suggerire fortemente che l'Universo abbia, quasi adire, “escogitato” le leggi fisiche da darsi onde renderle le più adatte a quelli che avrebbero dovuto essere i suoi risultati finali. Giova ricordare che un' certo numero di fisici ed astronomi di chiara fama, come un R.H. Dicke, un S.W. Hawking, un J .A. Wheeler, oltre al E. Carter già citato, non hanno nascosto una loro originalissima opinione in merito a considerazioni di siffatta natura.


L'originalità delle opinioni consiste, nella sostanza, nell'escludere che nell'Universo infinitamente piccolo, denso e caldo sorto ai 10-35 secondi dall'istante iniziale, potesse trovarsi racchiuso in germe tutto il caratteristico patrimonio di condizioni fisi- che, così peculiari e sottili, che dalle galassie, alle stelle, ai pianeti, si è venuto ad estrinsecare fino alla generazione di forme intelligenti.

Va rammentato che i 10-35 secondi di età cosmica rappresentano il momento di massima regressione temporale al quale le normali leggi fisiche della Relatività e della Quanto- Meccanica riescono ancora a descrivere il comportamento della materia e della radiazione. Non esiste ancora una generale convergenza di opinioni sugli eventi che potrebbero aver caratterizzato l'Universo negli istanti precedenti; con l'inoltrarsi a ritroso fino al tempo zero. Forse, ne accenneremo su queste stesse pagine in una prossima occasione; ma il fatto certo per ora, sul quale i fisici tendono a concordare, è che la materia e la radiazione non furono sicuramente governate dalle forze fondamentali che conosciamo. Anzi, l'Universo dei primissimi istanti potrebbe avere rappresentato un' entità del tutto vuota di strutture, pregna soltanto di una non ben compresa “energia di eccitazione”. (l'Orgasmo Primigenio, ndM)

Tenendo conto di tutto questo, non è lecito riguardare il complesso del Cosmo alla stregua di un sistema fisico isolato, sottoposto a leggi comportamentali valide indipendentemente a priori: Piuttosto - e tale è l' opinione degli studiosi citati - sembra più costruttivo andare a cercare a posteriori le cause prime che hanno condizionato l’Universo stesso fino a favorire, col tempo, l'emersione dal suo seno delle forme organizzate più evolute.

L 'unico esempio di forma intellettiva in grado di comprendere le leggi dell'Universo, e di cui abbiamo finora nozione, è ovviamente quella umana. Perciò - e in questa affermazione inquietante e rivoluzionaria il Dicke può ben dirsi esser stato un precursore - bisogna pensare che è proprio nella circostanza che, ad un certo momento, sia sorta un'umanità in grado di raziocinare, che si trova nascosta la chiave per interpretare i reconditi motivi di quelle peculiarissime coincidenze di condizioni instauratesi nel Cosmo, delle quali abbiamo trattato, e che ne hanno reso l'organizzazione razionale e comprensibile.

Il lettore può, a ragione, rimanere non poco turbato dinanzi ad una siffatta affermazione, che gira da qualche tempo sotto la definizione di Principio Antropico. Potrebbe, a rigore, inquadrarla in una sorta di petizione di principio contraria al consueto metodo scientifico di dedurre gli effetti dalle cause, e non viceversa.

Peraltro, la maggior giustificazione concettuale del Principio Antropico risiede nel fatto che non è possibile configurare una legge di comportamento per il Cosmo che sia precedente alla nascita del Cosmo stesso. Una tale legge potrebbe, al contrario, venir desunta proprio dal quadro cosmico offerto dai risultati raggiunti.

In altre parole, se finalità ultima dell'Universo era quella di far emergere organismi capaci di comprenderne l'organizzazione, allora le leggi di cui l'Universo non disponeva ai suoi inizi, ma che comunque doveva necessariamente darsi con l'intraprendere la propria evoluzione, non potevano altro che conformarsi in modo da favorire l'insorgere della razionalità in quegli organismi medesimi.

Brandon Carter ha voluto sottolineare lo spirito del Principio Antropico del Dicke con il seguente aforisma: «Cogito, ergo mundus talis est», venendo così a precisare che l’Universo sarebbe stato ben diverso se ora non ci fossimo qui noi, umanità cosciente (non esclusa, naturalmente, ogni possibile altra forma intellettiva esistente nei Cosmo) a dimostrarsi capace di comprenderlo e di inquadrarlo in quelle leggi comportamentali che appaiono compatibili con la nostra razionalità.

Non si tratta, come potrebbe apparire, di una forma di neoantropocentrismo risorta sotto l'ègida di un discorso scientifico sofisticato. La posizione dell'uomo nell'Universo infatti non ne risulta, per questo, minimamente privilegiata, se non altro perché le leggi della sua fisica posseggono carattere universale, valido indifferentemente in ogni punto dello spazio e in ogni epoca del tempo.

È vero piuttosto - come alcuni aspetti della meccanica quantistica insegnano - che la presenza dell'osservatore può dimostrarsi altrettanto essenziale al modo in cui la realtà si manifesta quanto lo è la realtà stessa. Aver esteso questo concetto, indiscutibilmente profondo, al rango superiore d'interpretazione universale ci sembra in effetti costituire un coraggioso e quanto mai geniale riconoscimento dell'uniformità di quei principi fisici sui quali si fonda ogni aspetto della natura.

Vincenzo Croce

pubblicato per la prima volta in "Abstracta" n° 26, Maggio 1988

sfoglia     agosto       
 
 




blog letto 1 volte
Feed RSS di questo blog Reader
Feed ATOM di questo blog Atom

COSE VARIE

Indice ultime cose
Il mio profilo

RUBRICHE

Diario
Finanza
Saggi ed Analisi di Economia
Gestione Portafogli
Articolati
Fisiologia
Stati Avanzati di Depravazione
Filosofando

VAI A VEDERE

Ultimissime Di Bella
Ne Quid Nimis
Walking Class
Scribacchiature
InMinoranza
Fort
Zamax
Noise from Amerika


Date forza alla libertà di curarsi!
Quello che potete, se volete......

AIAN Modena
c/c n. 854632
B. Pop. Emilia Romagna - Ag. 5
ABI 5387  -  CAB 12905

COME DONARE IL 5 PER MILLE ALLA FONDAZIONE DI BELLA
Occorre, nella prossima dichiarazione dei redditi (Mod. 730 o Unico),apporre la propria firma nell`apposita sezione "Sostegno del volontariato, delle organizzazioni non lucrative di utilità sociale, delle associazioni di promozione sociale, delle associazioni e fondazioni" ed indicare il codice fiscale 01995220355

In questo blog non si danno consigli, si pensa semplicemente ad alta voce.
Pertanto, qualunque decisione attuata in seguito alla lettura di tali pensieri rimane di responsabilità esclusiva di chi la pone in essere.
Ne deriva che se le cose vanno male non potete rompere l'anima, così come nulla è dovuto da parte vostra se vanno bene.



Link Utili

Linus Pauling Institute

Metodo Di Bella
What they don't tell you about AIDS

CERCA