Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

Riassunto completo - IL GOLEM tutto quello che dovremmo sapere sulla scienza, Sintesi del corso di Sociologia

Riassunto completo - IL GOLEM tutto quello che dovremmo sapere sulla scienza

Tipologia: Sintesi del corso

2020/2021

Caricato il 23/01/2022

Roberta25497
Roberta25497 🇮🇹

4.6

(73)

16 documenti

1 / 71

Toggle sidebar

Spesso scaricati insieme


Documenti correlati


Anteprima parziale del testo

Scarica Riassunto completo - IL GOLEM tutto quello che dovremmo sapere sulla scienza e più Sintesi del corso in PDF di Sociologia solo su Docsity! IL GOLEM, TUTTO QUELLO CHE DOVREMMO SAPERE SULLA SCIENZA Harry Collins – Trevor Pinch Prefazione e ringraziamenti Questo libro è rivolto al lettore comune desiderosi di sapere come effettivamente opera la scienza; al giovane che studia discipline scientifiche; e a tutti coloro che hanno appena incominciato un corso di storia, filosofia o sociologia della scienza. Le fonti dei capitoli che lo compongono sono varie e diverse. Alcune derivano dal nostro personale lavoro ed altri sono il frutto di un’attenta selezione dei pochi libri e articoli di storia e sociologia della scienza che adottano un approccio non retrospettivo. Nella scelta dei vari capitoli riguardanti gli episodi di carattere scientifico, ci siamo limitati a consultare materiale a portata di mano. Ma, a questo scopo, abbiamo seguito due strade diverse. Abbiamo affrontato problemi relativi alle scienze sociali da una parte e alle scienze fisiche dall’altra, proponendo episodi di scienza con la S maiuscola, accanto ad altri di scienza minore, dedicando un certo spazio anche alla “cattiva” scienza. Desideriamo mostrare che la scienza è la stessa sia ai livelli più alti che ai più bassi, grande o piccola, fondamentale o effimera che sia. Il capitolo quinto sulle onde gravitazionali e il capitolo settimo sui neutrini solari si basano su una serie di studi originali da noi condotti sulla sociologia della conoscenza scientifica. Le interviste che riguardano il problema della radiazione gravitazionale furono condotte da Collins fra il 1972 e il 1975. Pinch ha intervistato gli scienziati che si occupavano dei neutrini solari nella seconda metà degli anni ’70. Il capitolo primo riguardante il trasferimento di memoria è basato su una tesi di PhD dal titolo “Memorie e Molecole” di Davis Travis, perfezionata con Collins all’università di Bath. I rimanenti capitoli sono stati ottenuti facendo ricorso a fonti meno dirette delle precedenti, che riportavano notizie e informazioni relative ai fatti in questione. Introduzione: il golem La scienza sembra essere o tutta buona o tutta cattiva. Per alcuni, la scienza è come un cavaliere alle crociate assediato da folli nemici dalla mente ottusa, mentre individui ancora più scellerati aspettano di fondare un nuovo fascismo sulla vittoria dell’ignoranza. Per altri, è la scienza stessa la vera nemica; il nostro caro pianeta, la nostra disposizione al Giusto, il poetico e il vello, sono assediati da una burocrazia tecnologica – l’antitesi della cultura – controllata da capitalisti il cui unico vero interesse è il profitto. Queste due concezioni della scienza sono entrambe errate e pericolose. La fisionomia della scienza non corrisponde né a quella di un cavalleresco guerriero, né a quella di una potente forza distruttiva senza pietà. Che cos’è allora la scienza? È un golem. Un golem è una creatura della mitologia ebraica. È un umanoide creato dall’uomo con acqua e argilla, con incantesimi e magie. È potente. La sua potenza aumenta di giorno in giorno. Obbedirà ai tuoi ordini, ti proteggerà dai nemici più minacciosi. Ma è maldestro e pericoloso. Se non è sottoposto a controllo, un golem può distruggere i suoi padri con la smisurata energia. Un golem non è un demone malvagio ma un gigante maldestro. 1 Nella tradizione medievale, tale creatura d’argilla era animata dallo spirito vitale, poiché portava incisa sulla fronte la parola “EMETH” (verità in ebraico) ed è la verità che lo muove. Ma ciò non significa che egli capisca la verità, tutt’altro. Scopo di questo libro è spiegare in che modo la scienza è un golem. Il nostro intendo è di mostrare che non si tratta di una creatura diabolica, solo un po’ squilibrata. La scienza golem non deve essere biasimata per i suoi errori; tali errori sono nostri, non suoi. Un golem non può essere biasimato se sta facendo del suo meglio. Ma non dobbiamo aspettarci troppo. Un golem, per quanto potente, è la creazione della nostra maestria e della nostra abilità. Questo libro è lineare. Per mostrare che cos’è la scienza presenteremo la scienza, facendo appello a riflessioni sul metodo scientifico nella minore misura possibile. Cercheremo di riscrivere episodi di scienza, alcuni molto noti, altri meno. Racconteremo ciò che è successo. Laddove ci soffermeremo a fare alcune considerazioni si tratterà di una riflessione su questioni di carattere umano, non metodologico. Il risultato sarà sorprendente. Lo shock derivante dal fatto che l’idea di scienza è così contaminata da analisi filosofiche, i limiti le teorie, l’agiografia, il compiacimento, l’eroismo, la superstizione, la paura e da un totale giudizio retrospettivo, che quello che effettivamente succede non è mai stato raccontato al di fuori di una ristretta cerchia di persone. Preparatevi ad imparare due cose: un po’ di scienza e molto sulla scienza. Il nocciolo del libro è costituito dai capitoli primo-settimo, che descrivono episodi di scienza. Non abbiamo approfondito un’analisi esplicita del processo scientifico. Nondimeno, ci sono argomenti comuni che emergono in ogni capitolo, il più importante dei quali è il concetto di “regresso dello sperimentatore” che viene presentato nei dettagli nel capitolo quinto sulla radiazione gravitazionale. Il problema legato agli esperimenti è che essi non insegnano nulla se non vengono effettuati in maniera competente, ma nei casi in cui il risultato scientifico è controverso non c’è accordo su quale debba essere il più idoneo criterio di competenza. Nelle controversie gli scienziati dissentono non solo sui risultati, ma anche sulla qualità del lavoro di ognuno. Questo impedisce agli esperimenti di essere decisivi e provoca una fase di regresso. Il punto è che tutti i risultati scientifici di cui devono essere messi al corrente i cittadini che vogliono partecipare al processo democratico di una società tecnologica, sono controversi; sono soggetti al regresso dello sperimentatore. 1.Conoscenza commestibile: il trasferimento chimico della memoria Introduzione Tutti siamo affascinati dal concetto di memoria e quasi tutti desidereremmo che la nostra memoria funzionasse meglio. Il lento accrescimento della nostra esperienza, che viene chiamato saggezza, sembra essere costituito dal graduale accumularsi della memoria nel corso della vita. Se fosse possibile trasmettere direttamente la memoria, potremmo utilizzare le nostre capacità creative sin dalla tenera età senza dover trascorrere anni a costruire prima le fondamenta della conoscenza. Fra la fine degli anni ’50 e la metà degli anni ’70, cominciò a farsi strada l’idea che un giorno saremmo stati in grado di costruire la nostra memoria in maniera molto meno faticosa. Ciò grazie al risultato di una serie di esperimenti eseguiti da James McConnell e Georges Ungar, riguardo al trasferimento chimico della memoria nei vermi e nei ratti. Se le nozioni memorizzate sono 2 distinguere le “mani d’oro” da un addestramento ad hoc, problema che ha particolare rilievo in questo campo. Certamente le attribuzioni di disonestà non sono sempre appropriate. Per queste ragioni la disputa tra McConnell e i suoi oppositori si trascinò, raggiungendo il suo apice nel 1964 con la pubblicazione di uno speciale supplemento alla rivista “Animal Behaviour”, riguardante questa controversia. A questo punto della situazione sarebbe difficile stabilire chi fosse favorito, ma apparve chiaro che la convinzione di McConnell secondo cui addestrare vermi richiedeva particolari capacità stava diventando un po’ più plausibile. Fattori di disturbo e ripetibilità Nella dinamica della controversia la sensibilizzazione potrebbe essere considerata come un fattore di disturbo, e i critici avanzarono l’esistenza di numerosi altri fattori di questo tipo. Per esempio, i vermi piatti, strisciando, producono una secrezione viscosa. I vermi che avvertono una sensazione di disagio preferiscono strisciare lungo zone in cui è presente tale sbavatura, e che sono state frequentate da altri vermi. Quindi, i vermi non addestrati preferiscono seguire i loro compagni istruiti non a causa del trasferimento di una particolare sostanza, ma grazie alle tracce di bava lasciate dalle precedenti “reclute”. Anche prendendo in considerazione un singolo verme potrebbe succedere che lo sviluppo di una scelta preferenziale dipenda dall’istino di rafforzare reciprocamente la striscia di bava piuttosto che da un risultato dell’addestramento. Una volta stabilito questo, esistono numerosi rimedi. Per esempio, i condotti potrebbero essere puliti e strofinati fra un esperimento e l’altro, o potrebbero essere impiegati regolarmente nuovi condotti ogni volta. Un avversario scoprì che, utilizzando vaschette perfettamente pulite non era possibile riscontrare alcun comportamento che fosse conseguente all’addestramento, ma McConnell, dichiarò che i vermi non potevano essere addestrati correttamente in un ambiente asettico. Alla fine, questo dissidio venne risolto accettando di cospargere di bava prodotta da vermi non istruiti estraneo all’esperimento il terreno destinato all’apprendimento. Tutte queste discussioni si risolsero in un tempo lungo, e non era chiaro a tutti cosa esattamente fosse stato stabilito fino a quel momento. Questa è una delle ragioni per cui le controversie si trascinarono per così tanto tempo quando la logica degli esperimenti sembra semplice e lineare. Si ricordi, tuttavia, che qualunque esperimento richiede un grande numero di prove e un’analisi scientifica. La portata dei risultati finali è di solito limitata, di conseguenze non è sempre chiaro cosa è stato dimostrato. Se i risultati di McConnell potessero o non potessero essere ripetuti da altri, o se si potesse dire che erano ripetibili, dipendeva dal comune accordo nello stabilire quali fossero le variabili più importanti nell’esperimento. Nel laboratorio, i “manipolatori di vermi” venivano addestrati e preparati da uno scienziato fornito di una buona esperienza ed erano sottoposti a settimane di pratica. Era necessario imparare a non “premere i vermi con troppo forza” dalle parole di McConnell. Dal punto d vista degli avversari questa era una delle scuse utilizzate da McConnell per far fronte all’evidente non ripetibilità del suo lavoro. L’effetto della sbavatura era un’altra variabile chiamata in causa sia dai sostenitori che dagli avversari in modi diversi. Quando si sviluppa una controversia 5 scientifica, emerge tutta una serie di variabili che potrebbero influenzare l’esito degli esperimenti. Per i sostenitori, si tratta di motivazioni valide che giustificano il fatto che uno scienziato inesperto incontri delle difficoltà nello svolgimento corretto dell’esperimento; per gli avversari, si tratta invece di scuse di cui ci si può servire quando altri falliscono nel tentativo di replicare le scoperte iniziali. Nel caso degli esperimenti sui vermi, furono riconosciute, fino a 70 variabili per giustificare la discrepanza nei risultati sperimentali. Ciò fornì ampio terreno per le accuse e le contro-accuse – abilità contro manipolazioni ad hoc. Maggiore è il numero delle variabili potenziali, più difficile è decidere se un esperimento riproduce effettivamente le condizioni di realizzazione di un altro esperimento. The Worm Runner’s Digest McConnell era uno scienziato insolito. Le persone sono indotte a fidarsi delle scoperte di uno scienziato non solo per il loro contenuto ma anche per l’immagine che tale scienziato sa proporre. McConnell non rispettava tale convenzione scientifica e questo non giocava a suo favore. Tra i suoi atti non convenzionali va ricordato, nel 1959, la fondazione della rivista “The Worm Runner’s Digest” (La dieta del verme corridore). McConnell dichiarò che era un modo per rispondere all’enorme quantità di posta che riceveva riguardo al suo lavoro iniziale sui vermi, ma la rivista pubblicava anche vignette a sfondo scientifico. Paradossalmente, uno degli svantaggi degli esperimenti sui vermi era che sembravano molto semplici. Ciò significava che molti sperimentatori, inclusi studenti di scuola media superiore, potevano tentare i test di trasferimento della memoria da soli. Furono questi studenti di scuola media superiore che sommersero McConnell con un’infinità di richieste di ulteriori informazioni e spiegazioni dei loro risultati. Non è necessariamente un fatto positivo che ci siano studenti di scuola media superiore in grado di ripetere gli esperimenti portati avanti da uno scienziato, perché ciò fa apparire tali esperimenti privi di gravitas. Cosa peggiore, rende ancora più difficile del solito separare un lavoro scientifico serio e competente da un lavoro artefatto e incompetente. Nel 1967 la rivista si spaccò dando origine a due testate distinte, stampate una di seguito all’altra, e la seconda metà fu ri-intitolata “The Journal of Biological Psychology”. Questa rivista fu gestita in maniera più convenzionale, e gli articoli che la componevano erano recensiti da una apposita commissione scientifica. “The Journal of Biological Psychology” non riuscì mai ad acquisire la pinea rispettabilità di una pubblicazione nel senso tradizionale della parola. Ovviamente, qualunque critico intenzionato a non prendere sul serio il lavoro di McConnell aveva una buona scusa per ignorare le sue argomentazioni se il loro unico sbocco scientifico era la rivista dello stesso McConnell, per nulla solidamente affermata. Nella competizione a livello scientifico, la qualità della presentazione è quasi così importante quanto il contenuto. La linea di demarcazione fra ingegno scientifico ed eccentricità è solida se è visibile solo agli “illuminati”. Molto di ciò che McConnell fece andò a finire nel lato sbagliato di quella linea. La conclusione della controversia sui vermi 6 Intorno alla metà degli anni ’60, quando McConnell stava iniziando a consolidare l’idea che i vermi potevano essere addestrati, se non proprio che poteva essere dimostrato il processo di trasferimento chimico della memoria, la posta in gioco fu modificata cosicché alcune delle precedenti argomentazioni apparvero futili e insignificanti. Ciò fu la conseguenza di una serie di esperimenti che suggerivano che il fenomeno del trasferimento di memoria poteva essere riscontrato nei mammiferi. I forti attacchi alla possibilità di addestramento dei vermi erano motivati dall’importanza del fenomeno del trasferimento. Con l’apparente dimostrazione della possibilità del trasferimento chimico della memoria in ratti e topi, le obiezioni alla possibilità di apprendimento da parte delle platelminte si dissolsero. Una volta che gli esperimenti sui vermi furono riconsiderati alla luce dei successivi esperimenti sui ratti, apparve del tutto ragionevole che addestrare i vermi richiedesse una speciale abilità, e che i vermi disponessero di facoltà di apprendimento. Ma questa lettura degli esperimenti apparve ragionevole alla maggioranza dei critici solo in un momento successivo. Divenne accettabile soltanto quando nessuno dedicò più molta attenzione a questo problema, perché l’interesse era stato calamitato da esperimenti molto più eccitanti, che riguardavano il trasferimento di reazioni comportamentali fra mammiferi. Fu questa una minaccia molto più seria per le convinzioni tradizionali sulla natura della memoria. Mammiferi Primi esperimenti I primi a rivendicare la paternità delle scoperte che dimostravano la possibilità del trasferimento della memoria nei mammiferi furono quattro gruppi indipendenti che avevano condotto le loro ricerche all’insaputa gli uni dagli altri. I primi 4 studi sull’argomento furono associati ai nomi di Fjerdingstad, Jacobson, Reinis e Ungar. Tutte queste ricerche furono eseguite intorno al 1964, e i loro risultati pubblicati nel 1965. Fjerdingstad pose i ratti in una scatola dotata di due passaggi, uno dei quali veniva illuminato mentre l’altro veniva lasciato completamente al buio secondo una sequenza casuale. I ratti erano lasciati senza acqua per 24 h, ma ricevevano alcune gocce d’acqua se entravano nel passaggio illuminato. Iniezioni di estratti di cervello addestrato inducevano, nei ratti non addestrati, la scelta preferenziale della scatola in cui i loro predecessori avevano trovato sollievo dalla sete. Jacobson aveva insegnato ai ratti affamati ad associare il cibo al suono di un click (questa capacità poteva essere trasferita grazie alle iniezioni). Reinis insegnò ai ratti a prendere cibo da un distributore automatico per tutta la durata dell’esposizione a uno stimolo condizionato (segnale luminoso o acustico). Fu constatato che anche questo meccanismo associativo poteva essere trasferito tramite iniezioni. Anche il laboratorio di McConnell iniziò a occuparsi dei ratti vero la metà degli anni ’60, ma, a lungo termine, il più importante ricercatore che effettuò esperimenti sui mammiferi fu Georges Ungar. Ungar iniziò col mostrare che si poteva trasferire la tolleranza alla morfina. Quando un animale si abitua all’assunzione di una sostanza stupefacente, sono necessarie dosi sempre maggiori per produrre gli stessi effetti sul suo comportamento. Questo fenomeno è conosciuto con il nome di “tolleranza” alla sostanza stupefacente. Ungar mescolò i cervelli di 50 ratti che 7 La differenza fra i due esperimenti cominciava ad emergere. Ungar dichiarò che il gruppo di Stanford aveva “eliminato una delle tre scatole presenti nel nostro programma sperimentale, istruito alcuni donatori una volta sola invece che 5… e utilizzato una diversa razza di topi”. Egli inoltre sollevò obiezioni riguardo al criterio di misura utilizzato dal gruppo di Stanford per valutare la tendenza dei topi ad evitare il buio. Invece di presentare i risultati in termini del periodo di tempo che i ratti trascorrevano nella scatola buia, essi avevano misurato la “latenza”. Con tale parola si indica il periodo di tempo che il topo trascorre all’interno dell’apparato sperimentale prima di entrare per la prima volta nella scatola buia. Goldstein dichiarò di aver notato che Ungar stesso registrava le latenze, ma pubblicava sempre i dati numerici in funzione del tempo di permanenza entro la scatola buia. “Mi sembrava curioso, poiché se la tendenza ad evitare il buio era realmente indotta dalle iniezioni, la latenza sarebbe dovuta aumentare”. Ungar replicò: “Nei suoi ultimi resoconti, egli cerca di giustificare uno di questi cambiamenti, e cioè l’utilizzo della latenza come elemento esplicativo della tendenza ad evitare il vuio invece del tempo totale trascorso nella scatola buia. Abbiamo mostrato a livello empirico, e lo abbiamo mostrato a lui, che un certo numero di topi si precipita nella scatola buia ma fuoriesce immediatamente e trascorre il tempo rimanente in quella illuminata. La latenza fornirebbe risultati equivoci”. Goldstein osservò: “Il tempo trascorso nella scatola buia, probabilmente sarebbe sensibile ad altri effetti comportamentali. Un topo ricevente che vaga sena meta poiché iperattivo sarebbe più incline a lasciare la scatola buia rispetto a un animale passivo”. Ungar e Goldstein erano in disaccordo sia riguardo al gatto che fossero stati pubblicati sufficienti dettagli, sia nello stabilire se determinate differenze fra l’esperimento originale e quello ripetuto fossero o non fossero rilevanti, sia in relazione alla correttezza delle diverse misure effettuate per “pesare” la paura del buio. Ungar considerava il lavoro di Goldstein nettamente e sostanzialmente lontano dai criteri in base ai quali egli aveva condotto il suo esperimento. Strategie a confronto La tecnica relativa al trasferimento della memoria era importante per gli psicologi perché sembrava offrire uno strumento per “selezionare” la memoria stessa. Molti psicologi speravano soprattutto che tale tecnica permettesse loro di sviscerare a fondo alcuni aspetti dei processi di apprendimento. L’esatta natura chimica delle sostanze responsabili del trasferimento della memoria era per loro di secondaria importanza. McConnell e altri psicologi del comportamento si diedero da fare per scoprire se anche altre inclinazioni comportamentali legate alla memoria potevano essere trasferite chimicamente da mammifero a mammifero. La paura del buio poteva essere interpretata come una disposizione generale piuttosto che come qualcosa che era stato appreso. La questione della specificità era equivalente al dibattito sulla sensibilizzazione nel caso dei vermi, ma ancor più importante nel caso dei mammiferi. L’eccitazione riguardava la possibilità che esistessero specifiche molecole correlate a specifici elementi di memoria o a comportamenti acquisiti. Per molti studiosi, questo argomento era difficile da accettare. Molto più appetibile era invece l’idea che le molecole avessero un effetto non specifico sul comportamento, ma che anzi tale effetto variasse in circostanze diverse (es. alterazione di tutto l’assetto emozionale 10 dell’animale). Se questo è tutto ciò che concerne il trasferimento, non esisteranno mai tutte le opere di Shakespeare in pillole. McConnell desiderava scoprire se poteva essere trasferita ciò che gli psicologi chiamano “conoscenza di grado A”. Per dimostrare la possibilità del trasferimento della “conoscenza di grado A”, McConnell e altri sperimentatori insegnarono ai ratti comportamenti più complessi, come la scelta di curvare a destra o a sinistra in un bivio per arrivare al cibo. Questi esperimenti furono eseguiti alla fine degli anni ’60. Esperimenti di “differenziazione” come questi sembravano essere trasferibili anche fra altri tipi di esseri animali. Fu ottenuto un certo successo in esperimenti di trasferimento fra specie incrociate. A differenza di McConnell, Ungar era un farmacologo di professione e nutriva maggiore interesse in una “strategia biochimica”. Infatti, egli desiderava isolare, analizzare e sintetizzare molecole attive. Per Ungar, la cosa importante era riuscire a trovare alcuni effetti riproducibili relativi al trasferimento, e studiare i fenomeni chimici responsabili di questo evento, sia che il comportamento fosse o non fosse una conoscenza di grado A. Concentrando le sue ricerche sull’esperimento delineato “paura del buio”, Ungar cominciò ad estrarre una sostanza che divenne famosa con il nome di “Scotofobina”. Per ottenerne una quantità misurabile, erano necessari i cervelli di 4.000 ratti addestrati. Dal punto di vista degli psicologi si trattava di una scienza importante e costosa, e altri biochimici non poterono fargli concorrenza. Alla fine, Ungar concluse di essere riuscito a isolare, analizzare e sintetizzare la Scotofobina. Ungar aveva sperato che i problemi relativi alla ripetizione degli esperimenti sul trasferimento chimico sarebbero stati risolti grazie alla disponibilità del materiale sintetico ma, come spesso accade quando si tratta di dispute scientifiche, ci sono così tanti dettagli contestabili che gli esperimenti non possono costringere nessuno a convenire che è stato trovato qualcosa di significativo. C’erano dispute sulla purezza del materiale sintetico, sulla sua stabilità e sul modo in cui veniva conservato da altri laboratori prima di essere utilizzato, sul tipo di mutamenti comportamentali (se ce ne erano) che esso induceva. Il risultato fu una continua controversia. Alcuni di coloro che credevano nell’effetto del trasferimento chimico pensarono che esistesse una famiglia di sostanze chimiche relative alle diverse specie, con formule analoghe ma leggermente diverse. Si conoscono svariate dozzine di esperimenti, ma c’è sufficiente ambiguità nei risultati da confrontare sia gli scettici che i sostenitori. La fine della storia McConnell chiuse il suo laboratorio nel 1971. Non riuscì ad ottenere ulteriori fondi per il suo lavoro e, in ogni caso, si era reso conto che per dimostrare l’effetto del trasferimento chimico della memoria era necessario adottare una strategia simile a quella di Ungar, cercando di isolare e sintetizzare agenti attivi. Qualcuno potrebbe dire che Ungar aveva vinto la competizione riguardo alle strategie sperimentali. Gli psicologi avevano perduto la sfida contro la “grande scienza” della biochimica. Ungar si fece avanti con il suo programma di ricerca, egli rivolse la sua attenzione ai pesci rossi. Quasi 17.000 pesci rossi addestrati sacrificarono la loro vita per la produzione di circa 750 g di 11 materia cerebrale in grado di differenziare i colori, ma questa quantità era ancora insufficiente secondo Ungar per identificare la struttura chimica delle presunte sostanze contenenti al memoria, le “cromodiopsine”. Ungar morì nel 1977 all’età di 71 anni e questo campo di ricerche morì con lui. Era stata la netta predominanza di Ungar in questo settore che aveva escluso dalla competizione altri lavoratori. Ungar aveva innalzato così tanto la posta in gioco che l’investimento economico richiesto per portare a termine un serio tentativo di riprodurre il suo operato era troppo alto. Così, quando Ungar morì, non ci fu nessuno a cui passare il testimone. Alcuni scienziati cercarono di sintetizzare la Scotofobina e di provarla su animali ma i testi non riuscirono a stabilire se tale sostanza fosse effettivamente il corrispondente chimico della “paura del buio” o invece qualcosa di più generale come la paura. In ogni caso, se gli sforzi eroici di Ungar ebbero implicazioni di un certo rilievo, queste furono accantonate quando, verso la fine degli anni ’70 esplose l’interesse per il campo di ricerca della chimica del peptide cerebrale. Gli scienziati ora disponevano di prodotti chimici del cervello su cui lavorare che presentavano effetti chiari e univoci, ma estranei al processo di trasferimento della memoria. La maggior parte degli scienziati dimenticò quel settore di studio. Non si può affermare che un particolare esperimento o una serie di esperimenti avessero dimostrato la non esistenza dei fenomeni del trasferimento della memoria, ma tre pubblicazioni a quell’epoca sembrarono decisive. Il loro interesse storico risiede nell’effetto negativo che queste produssero quando furono pubblicate, mentre si potrebbe dire che l’interesse sociologico risieda nelle ragioni per cui quel particolare effetto si produsse, specialmente considerando che, con il senno di oggi, tali pubblicazioni risultano molto meno decisive. 1. Il primo articolo fu pubblicato nel 1964 e proveniva dal laboratorio diretto dal Premio Nobel Melvin Calvin; riguardava le platelminte. L’articolo descriveva una serie di esperimenti che sembravano dimostrar che l’acquisizione di comportamenti indotti non aveva luogo. Questo articolo ebbe una grande risonanza, e per molti anni fu ricordato perché minava alla base il successo dei primi studi sul trasferimento chimico della memoria. Oggigiorno, la sua prudente conclusione che affermava che l’apprendimento “non era stato ancora dimostrato” è stata superata ed è riconosciuto che i vermi imparano. 2. Il secondo articolo scritto da Byrne e 22 collaboratori, fu pubblicato nel 1966. Si trattava di un articolo uscito sulla rivista “Science” che riportava il fallimento dei tentativi effettuati da 7 diversi laboratori di riprodurre uno dei primi esperimenti sul trasferimento chimico della memoria. Anch’esso viene spesso citato come il “colpo di grazia” sferrato a questo campo di ricerche. Ma per Ungar ed altri sostenitori tutti gli esperimenti menzionati nell’articolo non erano validi perché assumevano che la sostanza responsabile del trasferimento fosse l’RNA invece che un peptide. 3. L’ultimo articolo è il più noto, il lungo resoconto di 5 pagine di Ungar sull’analisi e sulla sintesi della Scotofobina fu pubblicato su “Nature”. Insieme a questo articolo, tuttavia, era riportato un dettagliato commento critico di 15 pagine firmato dal comitato scientifico della rivista. Tale commento riduceva notevolmente l’attendibilità dei risultati riguardo al fenomeno del trasferimento chimico della memoria. “Nature” si è servita di questa insolita 12 sorta di tachimetro per la terra. Sembra altresì che Einstein fosse scarsamente interessato agli esperimenti di Michelson quando formulò la sua teoria. Il legame fra Einstein e Michelson fu impropriamente creato da altri 20 o più anni dopo che era stata completata la prima serie di esperimenti “decisivi”. Michelson non era convinto dell’importanza che i suoi risultati avrebbero avuto in seguito. A quel tempo era alquanto deluso, perché non era riuscito a trovare la velocità orvitale della terra. Come misurare la velocità del vento di etere Per misurare la velocità della terra, Michelson aveva bisogno di misurare la velocità della luce in svariate direzioni. L’assunto di partenza fu che la massima velocità della terra rispetto all’etere era dello stesso ordine di grandezza della velocità orbitale del pianeta intorno al sole: 30 Km/s circa. Si sapeva che la velocità della luce era di circa 300.000 km/s, così l’effetto da misurare doveva essere piccolo – una parte su 10.000. Ma il peggio ra che le misurazioni dirette della velocità della luce erano troppo poco accurate per permettere di rivelare una così piccola discrepanza, l’unica possibilità era quella di confrontare i valori della velocità in due diverse direzioni. Il metodo consisteva nell’utilizzare uno strumento chiamato “interferometro”. Un singolo raggio di luce viene spezzato in due raggi distinti che vengono successivamente ricombinati. Quando il raggio inizialmente scomposto si ricombina dà origine alle “frange di interferenza” una serie di bande chiare e scure. L’effetto è dovuto alle onde luminose di ciascuna metà del raggio che alternativamente si sommano (bande chiare) e si elidono (bande scure). Michelson propose di inviare i raggi in direzioni perpendicolari l’una all’altra e di farli riflettere indietro per essere poi ricombinati vicino alla sorgente. Ora si immagini che l’intero apparato sia orientato rispetto al vento di etere di un angolo tale che la velocità di propagazione della luce lungo i due cammini sia la stessa. Immaginate ora che l’intero apparato venga ruotato rispetto al vento di etere in modo tale che la velocità della luce aumenti lungo un cammino e diminuisca lungo l’altro. Quindi, considerando per un attimo solo un cammino, quello che prima era il punto in cui arrivava una cresta d’onda ora non lo è più. La stessa cosa accade all’altra metà del fascio. L’effetto globale è che i punti in cui le onde si sommano costruttivamente e quelli in cui si sommano distruttivamente subiscono una traslazione; cioè le bande chiare e quelle scure dovrebbero essere situate a fianco delle posizioni precedentemente occupate. In questo schema sperimentale, per rivelare il movimento della terra attraverso l’etere non occorre sapere in quale direzione il vento d’etere soffia all’inizio dell’esperimento, tutto quello che occorre fare è ruotare lo strumento e cercare gli spostamenti delle frange. È possibile calcolare sia la velocità che la direzione del vento d’etere, una volta nota la serie di tutte le traslazioni delle frange. La spiegazione precedente sembra fornire un’interpretazione erronea di un punto importante. Nello strumento di Michelson i raggi di luce erano inviati lungo una traiettoria e poi riflessi indietro. Quindi, se essi fossero stati trascinati insieme all’etere in una direzione, avrebbero dovuto subire un rallentamento nella direzione opposta dopo la riflessione; sembrerebbe che gli effetti globalmente si annullino. L’aritmetica ci mostra che ciò non è vero. L’aumento della velocità non è del tutto neutralizzato dalla successiva perdita di velocità, ma ciò significa che l’effetto cercato è molto più piccolo di quanto sarebbe se ci fosse un modo per ricombinare i due raggi 15 senza doverli ricondurre al punto di partenza – ma non c’è. Invece di cercare una variazione nella velocità della luce di circa una parte su 10.000, si deve cercare un effetto pari a circa 1 su 100.000.000. Si tratta davvero di un esperimento molto difficile. Nondimeno, quando Michelson sviluppò il suo apparato di misura, si aspettava di osservare uno spostamento delle frange pari a circa quattro decimi della larghezza di una singola frangia se il vento d’etere avesse soffiato a una velocità uguale a quella della terra nella sua orbita. È questo ciò che egli pensava di osservare con facilità. Gli elementi dell’esperimento È importante notare che la velocità apparente del vento di etere dipendeva dall’orientamento dello strumento che variava durante la rotazione della terra intorno al suo asse. Quindi l’esperimento doveva essere ripetuto in diversi momenti del giorno durante la rotazione terrestre così da poter sperimentare diversi orientamenti. Inoltre, per capire pienamente i dettagli del moto, era necessario ripetere l’esperimento in diversi periodi dell’anno, quando la terra ruota in diverse direzioni rispetto al sole. Se si fosse appurato che l’etere era stazionario rispetto al sole, in modo che il movimento globale della terra attraverso l’etere fosse dovuto alla sua velocità orbitale, allora la velocità sarebbe stata più o meno costante in qualunque periodo dell’anno e in qualunque momento della giornata. Se il sistema solare si fosse mosso globalmente attraverso l’etere, allora in determinati periodi dell’anno il moto orbitale della terra sarebbe avvenuto nella stessa direzione del moto del sistema solare, e in altri periodi nella direzione opposta. La differenza potrebbe essere utilizzata per determinare il movimento del sistema solare nel suo complesso. Se la velocità del sistema solare attraverso l’etere fosse stata simile alla velocità orbitale della terra, si sarebbero avuti periodi dell’anno in cui il moto orbitale della terra avrebbe quasi compensato il movimento del sole. In questi periodi la velocità apparente del vento di etere sarebbe risultata molto piccola, tendente allo zero. Perché l’esperimento funzionasse, le lunghezze dei cammini dei raggi luminosi dovevano essere mantenute costanti così da essere influenzate solo dai mutamenti nella direzione del vento di etere. I cambiamenti previsti per tali lunghezze erano dell’ordine di una singola lunghezza d’onda della luce, era difficile mantenere l’apparato sperimentale sufficientemente stabile. Michelson trovò che una massa di 30 g collocata all’estremità di uno dei bracci dello strumento, il cui peso era dell’ordine delle tonnellate, era sufficiente per alterare drammaticamente i risultati. Anche un piccolissimo cambiamento di temperatura avrebbe prodotto il medesimo risultato. Gli effetti magnetici prodotti sul materiale dell’apparato dal metallo circostante o dal campo magnetico della terra potevano essere sufficienti per rendere inattendibili i risultati nelle strutture in cui erano stati utilizzati ferro o acciaio per conferire rigidità, mentre minimi cambiamenti di umidità potevano viziare i risultati di quegli esperimenti in cui si cercava di mantenere stabili i bracci per mezzo di supporti di legno. La necessità di un controllo della temperatura e delle vibrazioni indicava che l’apparato sperimentale doveva essere solidamente costruito su massicce fondamenta nei sotterranei di edifici robusti e ben isolati. La necessità di uno strumento sperimentale massiccio e di un accurato isolamento creava un problema opposto. Si credeva che l’etere potesse essere “trascinato” da materiali opachi massivi. Così si poteva discutere del fatto che una stanza ben isolata la piano terra o in un piano interrato 16 di un grande edificio costituisse, in effetti, una trappola per l’etere; cioè una pozza stagnante intorno a cui la brezza di etere soffiava blandamente. Anche colline o montagne, o la superficie della terra potevano trascinare l’etere con sé, proprio come trasportano l’aria. Tutte queste considerazioni indicavano che l’esperimento doveva essere eseguito all’esterno, sulla vetta di un’alta montagna, o almeno all’interno di un edificio leggero di vetro. Ci sono 6 elementi fondamentali: 1. I raggi di luce devono essere scomposti e riflessi lungo cammini diretti perpendicolarmente l’uno all’altro. 2. Le osservazioni delle frange devono essere eseguite in numerosi punti mentre l’apparato viene ruotato attorno al proprio asse. 3. Le osservazioni devono essere ripetute in diversi momenti della giornata per la rotazione della terra intorno al proprio asse. 4. Le osservazioni devono essere ripetute in diverse stagioni dell’anno per la variazione della direzione di moto della terra rispetto al sistema solare. 5. L’esperimento dovrebbe essere eseguito in un edificio leggero, aperto, trasparente. 6. L’esperimento dovrebbe essere eseguito sulla vetta di una montagna o in alta collina. L’apparato sperimentale Michelson eseguì un primo esperimento nel 1881 e, con la collaborazione di Arthur Morley, una seconda e molto più accurata osservazione nel 1887. L’essenza dell’esperimento è semplice: un fascio di luce viene scomposto in due parti, riflesso in due percorsi perpendicolari l’uno all’altro, viene poi ricombinato vicino alla sorgente e quindi si osservano le frange. L’apparato viene ruotato e le osservazioni vengono ripetute, registrando gli spostamenti nelle posizioni delle frange. In partica, si osservava la posizione delle frange in 16 punti diversi, mentre lo strumento era sottoposto alla rotazione di un giro completo. In realtà, l’esperimento era estremamente difficile e doveva essere condotto con la massima accuratezza. Gli esperimenti dovevano essere eseguiti di notte, quando gli elementi esterni di disturbo erano ridotti al minimo. Le lunghezze dei bracci del primo apparato erano relativamente piccole. Negli esperimenti successivi le lunghezze dei bracci furono aumentate attraverso una serie di riflessioni multiple avanti e indietro, accrescendo così la sensibilità alle vibrazioni e ad altri elementi di disturbo. L’esperimento del 1881 La lunghezza dei bracci nel primo esperimento di Michelson era di circa 120 cm. Secondo i suoi calcoli, un vento d’etere la cui velocità era dello stesso ordine di grandezza della velocità orbitale della terra doveva provocare una traslazione di circa un decimo della larghezza di una frangia, quando l’apparato ruotava. Nel costruire e utilizzare questo strumento egli scoprì le difficoltà legate alle vibrazioni e alle distorsioni prodotte dai bracci quando l’apparato veniva fatto ruotare intorno al suo asse. Nondimeno, pubblicò i risultati delle sue osservazioni, che indicavano che non poteva essere rilevato alcun movimento della terra attraverso l’etere. L’esperimento fu poi analizzato da H. A. Lorentz, che evidenziò che nella sua analisi Michelson aveva tralasciato di tenere in considerazione l’effetto non nullo del vento d’etere sul tempo impiegato dalla luce a percorrere il braccio traverso dell’apparato. Se si considera anche questo effetto si dimezza il tempo previsto dalle frange, forse l’effetto dell’atteso vento d’etere si era 17 Le prime risposte sperimentali a Miller Le risposte sperimentali alle scoperte di Miller furono molte, e tutte fornivano risultati negativi. L’impegno più intenso fu quello profuso da Michelson stesso. Egli costruì un enorme interferometro e lo collocò in un laboratorio isolato, ottenendo risultati molto negativi. Michelson e Miller parteciparono ad un confronto pubblico durante una riunione scientifica nel 1928 e riconobbero l’impossibilità di intendersi. Circa nello stesso periodo venne portato a termine un accurato esperimento ad opera di scienziati tedeschi, e anche questo non riscontrò alcuna traccia dello spostamento cercato. Entrambi tali esperimenti erano schermati e nessuno dei due era stato eseguito a un’altitudine significativa. I risultati di questi due esperimenti sembravano aver placato la rinnovata questione sollevata dai risultati positivi degli esperimenti di Miller, anche se entrambi non erano stati eseguiti in condizioni particolarmente favorevoli per la rivelazione del vento d’etere. Un altro esperimento era stato eseguito da un pallone aerostatico rendendo necessaria una pesante schermatura. Come spesso accade quando si tratta di scienza, una “massa critica” di risultati sperimentali concordanti può “pesare” di più delle obiezioni sollevate da un singolo, per quanto accuratamente argomentate. Nel 1930 l’enorme dispositivo di Michelson fu istallato sulla cima del monte Wilson, nella sede di un telescopio. La struttura che lo ospitava era costruita in metallo (migliore schermatura). Sembra che nulla sia emerso da queste osservazioni. Sebbene si supponesse che l’interferometro di Michelson fosse fatto di “Invar” (lega di ferro e nickel), un’analisi successiva mostrò che la composizione di questo materiale non era corretta. L’articolo di Miller del 1933 e gli esperimenti più recenti Nel 1933 Miller pubblicò un articolo di rassegna sull’argomento, concludendo che la prova dell’esistenza del vento d’etere era ancora molto forte. Ci troviamo di fronte ad un classico problema di “ripetibilità”. Miller affermava di aver ottenuto un risultato positivo, gli avversari affermavano di aver ottenuto un risultato negativo, ma Miller riuscì a mostrare che le condizioni in cui erano stati condotti gli esperimenti che avevano dato esiti negativi non erano le stesse condizioni in cui egli aveva eseguito il suo esperimento. Il suo era l’unico esperimento ad essere stato compiuto ad una certa altitudine e con il minimo di schermatura necessario per impedire che il vento d’etere soffiasse attraverso l’apparato di prova. Nonostante ciò, questa posizione, a livello scientifico era superata. Altre prove della relatività, incluse le osservazioni di Eddington del 1919 suffragavano l’idea che la teoria della relatività fosse corretta e che la velocità della luce dovesse essere costante in tutte le direzioni. Il nuovo slancio da cui era animata la fisica implicava che i risultati di Miller perdessero importanza e significato. Ci siamo allontanati dall’idea iniziale secondo cui l’esperimento di Michelson-Morley aveva dimostrato la teoria della relatività. Siamo arrivati al punto in cui è stata la teoria della relatività a conferire importanza all’esperimento di Michelson-Morley furono largamente ignorati. I risultati di Michelson si presentarono all’inizio come seri problemi alla teoria dell’etere. Tali risultati negativi si trasformarono da serie anomalie in “scoperte” quando la teoria della relatività iniziò ad acquisire consensi. In seguito ai risultati positivi che Miller dichiarò di aver ottenuto, gli esiti degli esperimenti con l’interferometro divennero un’anomalia, ma stavolta furono considerati una seccatura piuttosto che un problema da risolvere. Il significato di un risultato sperimentale non 20 dipende solo dalla cura con cui l’esperimento è progettato ed eseguito, dipende anche da quello in cui le persone sono disposte a credere. Appendice Nella comunità scientifica, esistono alcune persone dotate di un tale rigore intellettuale che si sentono a disagio anche di fronte alle anomalie che la maggior parte degli altri considera semplicemente delle fastidiose seccature. Addirittura, ancora nel 1955, un gruppo di scienziati giunsero alla conclusione che i risultati del lavoro di Miller erano stati alterati dalle variazioni di temperatura. Michelson e Morley non avrebbero potuto dimostrare la relatività, perché addirittura nel 1963 i risultati degli esperimenti, considerati singolarmente e isolati dal resto della fisica, non erano ancora chiari. PARTE SECONDA: LE STELLE SUBISCONO SPOSTAMENTI NEI CIELI? Il campo gravitazionale della terra è troppo debole per rendere possibile per via sperimentale la verifica diretta della deviazione dei raggi luminosi. Ma i famosi esperimenti effettuati durante gli eclissi solari mostrano, in maniera decisiva anche se indiretta, l’influenza di un campo gravitazionale su un cammino di un raggio luminoso. La curiosa interrelazione fra teoria, predizione e osservazione La teoria della relatività generale è una questione complicata. È stato detto che nel 1919 c’erano solo 2 persone che la comprendevano pienamente: Einstein e Eddington (era una battuta di Eddington). Persino al giorno d’oggi, i teorici non sono completamente d’accordo sulle conseguenze della teoria di Einstein, mentre nel 1919 si discuteva ancora intensamente su che cosa esattamente ci si dovesse aspettare da questa teoria. C’era accordo riguardo al fatto che secondo le teorie di Newton ed Einstein, un forte campo gravitazionale doveva produrre un effetto considerevole sui raggi di luce, ma l’effetto previsto da Einstein doveva essere maggiore di quello previsto da Newton. Il problema era stabilire quale delle due teorie fosse corretta. Il campo gravitazionale della terra è troppo piccolo per produrre un effetto misurabile ma quello del sole è molto più grande. La luce che proviene dalle stelle dovrebbe essere deviata nel momento in cui transita nel campo gravitazionale del sole. Le stelle in prossimità del sole dovrebbero apparirci leggermente spostate rispetto alla loro abituale posizione. Einstein sosteneva che le stelle sarebbero dovute apparire traslate di una distanza pari al doppio di quella suggerita da Newton, sebbene gli spostamenti fossero, in entrambi i casi, molto piccoli. La deviazione teorica della massima deflessione apparente dei raggi di luce effettuata da Einstein (ca 1,7 secondi d’arco contro 0,8 secondi d’arco di Newton, dove un secondo d’arco è pari a 1/3600 di grado) è piuttosto problematica. Come accade per molti esperimenti difficili, le deviazioni teoriche furono considerate corrette dopo che le osservazioni ebbero verificato la previsione di Einstein. Il processo scientifico non si compie a partire da una netta formulazione delle previsioni teoriche, che devono poi essere verificate o invalidate. Al contrario, la validità riconosciuta alle derivazioni teoriche è intimamente legata alla nostra capacità di eseguire misure. Teoria e misura procedono di pari passo e il legame che le unisce è molto più stretto di quanto solitamente appare. 21 Vale la pena soffermarsi ad analizzare la particolare interrelazione tra teoria ed esperimento. Einstein aveva affermato che la teoria di Newton implicava una deflessione di una qualità pari a “N” e la sua teoria, invece, implicava una deflessione pari a “E”. Altri non erano sicuri che “N” e “E” fossero le giuste implicazioni delle due teorie. Qualcuno sosteneva che si poteva appurare quale delle due teorie fosse corretta solo dopo aver raggiunto una piena consapevolezza delle implicazioni di ciascuna di queste. Se ad esempio la situazione fosse stata capovolta (la teoria newtoniana implicasse una deviazione pari a “E” e quella di Einstein una deviazione pari a “N”) le misure relative allo spostamento delle stelle, per quanto accurate, correrebbero il pericolo di confermare la teoria errata. Occorre separare la teoria dalle previsioni effettuate sulla base di quella teoria. Nel caso in questione, Eddington ottenne misure che erano in accordo con le previsioni teoriche di Einstein, ma quei risultati furono considerati una conferma non solo di tale previsione ma della teoria stessa di Einstein. Interpretando in tal modo le osservazioni, Eddington sembrò confermare non solo la previsione di Einstein relativa all’effettivo spostamento, ma anche il suo metodo di deduzione di quella previsione a partire dalla sua teoria – qualcosa che nessun esperimento può confermare. Inoltre, le osservazioni di Eddington erano alquanto inesatte e spesso in contrasto le une con le altre. Quando decise quali osservazioni dovevano essere considerate “dati sperimentali” e quali dovevano essere classificate come “rumore”, cioè quando decise quali analizzare e quali ignorare, Eddington conosceva bene la previsione di Einstein. Quindi poteva solo affermare di aver trovato conferme alla previsione di Einstein perché aveva utilizzato tali previsioni nel decidere come valutare le sue osservazioni, mentre le previsioni di Einstein furono accettate solo perché le osservazioni di Eddington sembravano confermare. Osservazione e previsione erano legate da un circolo vizioso di mutue conferme, piuttosto che essere indipendenti l’una dall’altra come ci aspetteremmo in base all’idea convenzionale di “prova sperimentale”. Ci fu un “accordo nell’essere d’accordo” piuttosto che una teoria, seguita da una verifica, seguita da una conferma. La natura dell’esperimento L’esperimento consisteva nel confrontare la posizione delle stelle nel cielo con la loro posizione apparente quando la radiazione luminosa da queste emessa transita in prossimità del bordo del sole. Le stelle possono essere osservate in prossimità del sole solamente durante un’eclisse solare. L’entità dello spostamento – newtoniano o einsteiniano – è così piccola che l’unica possibilità di misurarlo consiste nel confrontare le fotografie scattate nella stessa regione del cielo in presenza o in assenza del sole. Per le osservazioni cruciali occorre attendere un’eclisse totale, ma le fotografie di confronto devono essere scattate numerosi mesi prima o dopo, quando il sole è assente da quella regione di cielo. Le fotografie durante l’eclisse devono essere scattate di giorno mentre le fotografie di confronto devono essere scattate di notte. In un esperimento di tale accuratezza, è importante che la situazione complessiva sia mantenuta il più possibile costante fra le osservazioni durante l’eclisse e quelle di confronto. Il problema è che le fotografie delle osservazioni durante l’eclisse e le lastre fotografiche di confronto devono essere scattate in diverse stagioni nell’anno. Ciò significa che, nel frattempo possono essere cambiate varie cose. Inoltre, le lastre fotografiche delle osservazioni effettuate durante l’eclisse ed eseguite di giorno utilizzeranno un telescopio caldo, mentre di notte, la telecamera guarderà attraverso un telescopio freddo. Ci sono molti cambiamenti (es. differenza di lunghezza focale che implica un 22 dall’astrografo di Sobral. Ripercorrendo le fasi del dibattito che seguì l’annuncio dell’Astronomer Royal, emerge che le dichiarazioni degli esperti erano tenute in grande considerazione. Il 6 novembre il presidente della Royal Society, presiedette una riunione durante la quale precisò: “È difficile per il pubblico che ci ascolta dare il giusto peso al significato dei numeri che sono stati sottoposti al nostro giudizio, ma l’Astronomer Royal e il professor Eddington hanno analizzato attentamente questo materiale, ed essi ritengono che la prova sia decisiva in favore del valore più grande ipotizzato per lo spostamento”. Nel 1923, tuttavia W. Campbell scrisse: “Il professor Eddington era propenso ad assegnare una notevole importanza ai risultati delle osservazioni africane, ma, dal momento che le poche immagini relative all’esiguo numero di lastre di quell’astrografo non erano di qualità così buona come quelle ottenute con l’astrografo collocato in Brasile, e poiché i risultati di queste ultime fotografie furono quasi completamente ignorati, la logica degli eventi non appare del tutto chiara”. Eddington giustificò questa sua posizione affermando che i risultati dell’astrografo di Sobral erano affetti da un “errore sistematico”: ciò significa che gli errori non erano distribuiti a caso intorno al valor medio, ma che ogni lettura era spostata sistematicamente verso un valore medio più basso del reale. Se questa motivazione fosse stata valida per l’astrografo di Sobral ma non per gli altri due gruppi di letture, allora Eddington sarebbe stato legittimato a interpretare i risultati come aveva fatto ma sembra che a quell’epoca egli non disponesse di prove convincenti a questo proposito. Alla fine, Eddington la spuntò scrivendo gli articoli di rassegna che descrivevano le spedizioni e il loro significato, trascurando deliberatamente le 18 lastre scattate dall’astrografo di Sobral, riportando semplicemente il risultato di 1,98 secondi d’arco misurato dal telescopio di 10 cm e quello di 1,61 secondi d’arco relativo alle 2 fotografie da lui stesso scattate. Se si dispone solamente di questi 2 numeri per effettuare il confronto con la previsione newtoniana di circa 0,8 e quella einsteiniana di 1,7, la conclusione è inevitabile. Ma non c’era nulla di inevitabile fino a quando Eddington, l’Astronomer Royal, e il resto della comunità scientifica ebbero portato a termine tutte le loro determinazioni a posteriori di ciò che le osservazioni avrebbero dovuto indicare. Furono eseguite ancora 10 spedizioni durante eclissi solari fra il 1922 e il 1952. Solamente una di queste, nel 1929, rese possibile l’osservazione di una stella che distava meno di un diametro solare dal bordo del sole stesso, e tale esperimento suggerì che lo spostamento in prossimità del bordo fosse pari a 2.24 secondi d’arco. Anche i risultati relativi alle altre 9 spedizioni furono in massima parte concentrati intorno a valori alti. Sebbene ci siano altre ragioni per credere nella fondatezza della previsione di Einstein, la prova della deviazione della luce stellare da parte del sole, almeno fino al 1952, era non decisiva o indicava un valore troppo alto per la teoria. CONCLUSIONE ALLA PRIMA E ALLA SECONDA PARTE Niente di tutto ciò è stato detto per affermare che Einstein avesse torto. Ma è doveroso riconoscere che cosa furono esattamente questi esperimenti. Descrivere i fatti secondo lo schema di una dedizione quasi logica di una previsione teorica, seguita poi da un tentativo di diretta osservazione, è sbagliato. Ciò che noi abbiamo visto sono i contributi teorici e sperimentali ad un 25 mutamento culturale, un mutamento che era sia una legittimazione ad osservare il mondo in un certo modo, sia una conseguenza di quelle osservazioni. La maniera in cui le osservazioni del 1919 si accordavano con l’esperimento di Michelson-Morley dovrebbe essere chiara. Questi due esperimenti traevano mutue conferme. Poiché la relatività si stava affermando essa sembrava il filtro naturale attraverso cui interpretare le osservazioni del 1919. Poiché queste osservazioni fornivano poi un sostegno ulteriore alla relatività, tale teoria era divenuta ancora più fondamentale quando si passò ad interpretare le osservazioni di Miller nel 1925. Mentre tutti questi fatti incalzavano, si facevano strada anche altre prove sperimentali della relatività che erano connesse le une alle altre, così come agli esperimenti di Michelson e di Eddington nella medesima relazione di reciproco rafforzamento. L’annuncio di una solida conclusione innesca dei validi motivi per raggiungere quella conclusione, una volta che è stato introdotto il nucleo di cristallizzazione, la cristallizzazione della nuova cultura scientifica avviene ad una velocità mozzafiato. Eddington e l’Astronomer Royal fecero la loro parte sbarazzandosi e ignorando tali discrepanze, il che a sua volta legittimò la decisione di sbarazzarsi ed ignorare un’altra serie di discrepanze, il che portò a conclusioni che giustificarono ulteriormente la prima serie di discrepanze ignorate (ad esempio queste teorie avvalorarono il red shift ovvero lo spostamento di tutte le lunghezze d’oda della luce solare che erano traslate leggermente verso l’estremità rossa dello spettro a causa del campo gravitazionale del sole stesso). Nessuna prova singolarmente era decisiva e definitiva, ma prese tutte insieme avevano l’effetto di una mossa vincente. La cultura della scienza era quindi cambiata, diventando qualcosa che noi oggi chiamiamo la vera concezione di spazio, tempo e gravità. Si confronti questo processo con la direzione politica centralistica del processo scientifico. Si confronti questo con il concetto idealizzato di “metodo” scientifico in cui le prove cieche impediscono ai pregiudizi dell’osservatore di intervenire nelle osservazioni, e scopriremo che esso è molto più simile ai metodi politici. Non abbiamo motivo di pensare che la relatività sia qualcosa di diverso dalla verità ma è una verità che emerge come risultato di decisioni sul modo in cui noi tutti vorremmo vivere le nostre esistenze di scienziati, e sui criteri che dovremmo adottare per legittimare le nostre osservazioni scientifiche. Non fu una verità a cui si era costretti sulla base della logica inesorabile di una serie di esperimenti cruciali. Appendice alla seconda parte di questo capitolo Nella storia, così come nella scienza i fatti non parlano da soli, almeno non esattamente. L’interpretazione che il professor Earman e il professor Glymour vorrebbero dare dei fatti non si intona interamente alle conclusioni di questo libro. Dal momento che essi sostengono un punto di vista diverso dal nostro sulla natura della scienza ci siamo preoccupati di rimanere fedeli al loro resoconto dei fatti. È giusto citare le loro conclusioni: “Questa singolare sequenza di motivazioni potrebbe causare disperazione in coloro che vedono nella scienza un modello di obiettività e razionalità. Questo atteggiamento dovrebbe essere mitigato considerando che la teoria in cui Eddington credeva, poiché la riteneva affascinante e completa – e, probabilmente, poiché pensava che il mondo ne 26 avrebbe tratto vantaggio se fosse stata vera – questa teoria, per quanto oggi ne sappiamo, incarna ancora la verità sulla natura di spazio, tempo e gravità”. Purché lo si intenda correttamente, noi stessi non abbiamo alcun motivo per non essere d’accordo. 3.Il sole in provetta: la storia della fusione fredda Quando due chimici dell’Università dell’Utah, il 23 marzo 1989, annunciarono alla stampa di tutto il mondo di aver realizzato in una provetta la fusione (la possibilità di utilizzare una reazione di fusione come quella della bomba a idrogeno in maniera controllata per generare potenza), innescarono in ambito scientifico l’equivalente di una corsa all’oro. E l’oro si poteva trovare dovunque. I due scienziati erano Martin Fleischmann e Stanley Pons. L’apparato sperimentale era abbastanza semplice: un becher di acqua pesante (simile all’acqua ordinaria se non per gli atomi di idrogeno rimpiazzati da atomi di idrogeno pesante – deuterio); un “elettrodo” di palladio (catodo -), e un elettrodo di platino (l’anodo +). Venne aggiunta all’acqua pesante una piccola quantità di “sale”, il deuterossido di litio, che fungeva da conduttore. Si applica un basso voltaggio a questa cella per un periodo di varie centinaia di ore ed ecco apparire l’oro: una quantità superiore di potenza in uscita, generata da un processo di fusione. Gli atomi di idrogeno pesante dovrebbero fondere insieme dando luogo alla formazione di nuclei di elio, liberando energia; è in questo modo che è alimentato il sole. I segnali rivelatori dell’avvenuta fusione erano la presenza di calore, di sottoprodotti nucleari quali neutroni e di tracce dell’isotopo super-pesante dell’idrogeno, il trizio. Pons e Fleischmann avvisarono che l’esperimento doveva essere tentato solo su piccola scala. Una cella utilizzata per un precedente esperimento era misteriosamente esplosa, vaporizzando il palladio e provocando un grande buco nel pavimento del laboratorio. Fortunatamente questo incidente si era verificato durante la notte, e non aveva causato danni alle persone. L’esperimento sembrava semplice e moltissimi scienziati desideravano tentare. Molti lo fecero. Era meraviglioso poter tenare in laboratorio un semplice esperimento sulla fusione, dopo decenni di maldestri tentativi per controllare la fusione termonucleare. La fusione fredda sembrava apparire un’altra strada, la strada della piccola scienza. Gli scienziati di tutto il mondo si gettarono immediatamente nella mischia per raccogliere informazioni sull’esperimento. Era difficile riuscire a conoscere i dettagli. Fax, reti di posta elettronica, giornali e televisioni giocarono la loro partita. Quella stesa notte, intraprendenti studiosi del MIT diedero inizio al primo tentativo di duplicare quel sensazionale risultato, basandosi su una videocassetta di un notiziario televisivo durante il quale era stato mostrato l’apparato sperimentale ma non erano note le esatte condizioni sperimentali usate da Pons e Fleischmann e dunque questi esperimenti ebbero scarsi risultati. Gli esperimenti sulla fusione fredda risentivano le conseguenze della loro apparente semplicità – almeno all’inizio, prima che gli scienziati riconoscessero quanto era complicata una cella elettronica palladio-deuterio. Nel giro di una settimana fu reso disponibile un manoscritto fotocopiato che mostrava i dettagli tecnici dell’esperimento. A quel punto, iniziarono a ritmo serrato i tentativi di duplicazione dell’esperimento. Molti passavano intere notti in bianco per occuparsi delle loro celle elettroniche. In ambito scientifico (e non solo) non si era mai visto nulla del genere, anche la stampa di tutto il mondo sfornava continuamente notizie, articoli e aggiornamenti sull’argomento. Si trattava di 27 L’annuncio del 23 marzo 1989 non può essere capito senza fare riferimento all’attività svolta dall’altro gruppo dell’Utah, diretto da Steven Jones presso la Brigham Young University. La comunità scientifica non era a conoscenza delle ricerche che Pons e Fleischmann stavano conducendo sulla fusione fredda, ma aveva seguito per parecchi anni i progressi di Jones. Nel 1982, Jones e i suoi collaboratori avevano dedicato grandi energie a livello sperimentale cercando di ottenere un processo di fusione catalizzata da particelle subatomiche prodotte dall’acceleratore di particelle di Los Alamos. Essi avevano riscontrato la presenza di tracce dell’avvenuto processo di fusione in qualità superiore a quanto si sarebbero attesi da considerazioni di carattere teorico, ma non sufficiente per ricavarne una possibile fonte di energia. Analogamente alle ricerche sulla fusione termonucleare, la fusione catalizzata da tali particelle costituiva un deludente passo avanti, ben lontano da quell’eccesso di produzione di energia necessario per lo sfruttamento commerciale. Jones aveva iniziato ad eseguire ricerche sulla possibilità che pressioni molto elevanti inducessero la fusione degli isotopi dell’idrogeno. Il progresso decisivo in queste sue ricerche venne nel 1985 quando Paul Palmer, geofisico della Brigham Young University, rivolse la sua attenzione all’anomalo eccesso di elio pesante riscontrato in prossimità dei vulcani. Palmer e Jones pensarono che questo evento potesse essere spiegato facendo riferimento a un processo di fusione fredda, catalizzata a livello geofisico a livello della terra, a cui era sottoposto il deuterio contenuto nell’acqua comune. Il gruppo della Brigham Young approfondì questa idea operativa, cercando di riprodurre in laboratorio i processi geologici in atto. Tali scienziati cercavano un metallo, la cui eventuale presenza nella roccia poteva servire come catalizzatore della fusione. Costruirono una cella elettrolitica e provarono a utilizzare vari materiali per fabbricare gli elettrodi. Decisero che il palladio, con la sua peculiarità di assorbire l’ossigeno, era il candidato più adatto. Il gruppo costruì un rilevatore di neutrini a basso livello per misurare qualunque processo di fusione che si fosse verificato. Nel 1986 iniziarono ad osservare neutroni con una intensità appena superiore al livello di fondo. Nel corso del 1988, utilizzando un rilevatore più sofistica, erano fiduciosi di aver trovato chiara prova della produzione di neutroni. Jones sentì parlare per la prima volta degli esperimenti di Fleischmann e Pons nel settembre 1988, quando gli fu inviata la loro proposta di ricerca da sottoporre al Dipartimento dell’Energia (Pons e Fleischmann avevano deciso che il loro operato era meritorio di finanziamenti pubblici). Fu una sfortuna per entrambi i gruppi che ricerche così simili fossero condotte in sedi così ravvicinate fra loro. Nacque fra i due gruppi una certa rivalità e diffidenza. È ancora oggi controverso in che modo si accordarono riguardo alla contemporanea pubblicazione dei loro risultati. Sembra che, all’inizio del 1989, Pons e Fleischmann nutrissero la speranza che Jones si sarebbe astenuto dal pubblicare i suoi risultati per un certo periodo, lasciando loro il tempo di perfezionare le loro misure. Pons e Fleischmann erano sicuri di aver riscontrato un eccesso di calore ma non disponevano di prove decisive che dimostrassero la sua origine nucleare. Alcune rozze misure indicavano la presenza di neutroni, ma erano auspicabili misure più esatte. Fleischmann cercò di apportare una cella per la fusione fredda da trasferire in Inghilterra al Laboratorio Harwell, dove egli lavorava come consulente scientifico e dove erano disponibili rivelatori di neutroni più 30 sensibili. Sfortunatamente, la cella fu dichiarata a rischio radioattivo e non fu concessa l’autorizzazione per poterla trasportare oltre i confini internazionali. Pons e Fleischmann dichiarano di poter rivelare indirettamente la presenza di neutroni, osservando le interazioni che avevano luogo in una vasca d’acqua che circondava la cella. Furono proprio queste misure, eseguite frettolosamente, ad essere successivamente contestate dal gruppo del MIT; si rivelarono il tallone d’Achille nel corpo dell’Utah. Pons e Fleischmann erano sotto pressione a causa dell’imminente annuncio di Jones. Sebben Jones avesse annullato un seminario nel mese di marzo, egli programmò di annunciare i suoi risultati in pubblico in occasione della riunione dell’American Physical Society, il 1° maggio. Pons e Fleischmann concordarono con Jones di spedire due distinti articoli alla rivista “Nature” il 24 marzo. In marzo, tuttavia, i rapporti fra i due gruppi si interruppero. Nonostante Jones avesse intenzione di parlare in pubblico nel mese di maggio, il contenuto del suo annuncio fu reso noto in anticipo. Pons e Fleischmann, così pare, lo interpretarono come un “via libera” per fare essi stessi un comunicato pubblico. Inoltre, il gruppo dell’università dello Utah era preoccupato che Jones potesse appropriarsi delle loro idee sull’eccesso di calore, avendo avuto accesso al contenuto dei loro studi attraverso la proposta di ricerca inviata al Dipartimento dell’Energia. A complicare la situazione, contribuì la richiesta inoltrata a Pons nel mese di marzo dell’editore della rivista “Journal of Elecrtroanalytical Chemistry”, per ricevere un articolo sui suoi recenti lavori. Pons abbozzò rapidamente un resoconto degli esperimenti sulla fusione fredda che sottopose al vaglio della redazione scientifica della rivista. Fu questo articolo (aprile 1989) che alla fine venne largamente divulgato e che fornì i primi dettagli tecnici sugli esperimenti. Incalzati da pressioni sempre più forti da parte dell’amministrazione dell’Utah, Pons e Fleischmann decisero di procedere con una conferenza stampa il 23 marzo, cioè il giorno prima della concordata contemporanea presentazione dell’articolo alla rivista “Nature”. Bastò un’indiscrezione da parte di Fleischmann ad un giornalista inglese e la notizia della scoperta apparve per la prima volta sul quotidiano inglese “Financial Times” il mattino del 23 marzo. Così, la stampa di tutto il mondo si preparò all’assalto dello Utah. In occasione di quella conferenza stampa nessun riferimento fu fatto riguardo all’altro gruppo dell’Utah. Jones considerò nullo l’accordo sigillato e spedì immediatamente il suo articolo a “Nature”. Il 24 marzo, all’ora stabilità in cui qualcuno del gruppo di Jones doveva incontrarsi con un collaboratore di Pons e Fleischmann, nessuno si fece vivo e l’articolo di Pons e Fleischmann fu spedito da solo. La controversia Furono i risultati di Pons e Fleischmann a dare origine alla controversia sulla fusione fredda. I livelli di presenza dei neutroni rivelati da Jones erano vari ordini di grandezza inferiori ed egli non aveva mai dichiarato di aver osservato un eccesso di calore. I risultati di Jones, inoltre, non mettevano in discussione i fondamenti teorici del processo di fusione. In più Jones considerava importante minimizzare l’aspetto relativo ad un possibile sfruttamento commerciale della scoperta. L’effetto dannoso che ha per la credibilità delle scoperte degli scienziati il loro coinvolgimento in una controversia scientifica è esemplificato dal modo in cui vennero accolti i risultati di Jones. Pochi dubiterebbero che se non fosse stato per Pons e Fleischmann, Steve Jones avrebbe oggi 31 come oggi stabilito senza inutili clamori un interessante fenomeno del mondo naturale: la fusione di piccoli quantitativi di deuterio con un catodo di palladio. Nonostante i suoi tentativi di prendere le distanze dall’altro gruppo dell’Utah, Jones è stato inevitabilmente oggetto della stessa diffidenza. La veridicità delle sue misure sui neutroni è stata messa in discussione e non vi è accordo sul fatto che abbia o non abbia osservato la fusione. Pons e Fleischmann, a differenza di Jones, non godevano di una fama consolidata nel campo delle ricerche della fusione, erano chimici, non fisici. Soprattutto, andavano affermando qualcosa che per la maggior parte dei fisici era teoricamente impossibile. Non soltanto sembrava estremamente improbabile che potesse verificarsi un processo di fusione, ma, oltre a ciò, se tutto l’eccesso di calore fosse stato davvero provocato dalla fusione, allora i livelli relativi alle quantità di neutroni prodotti sarebbero stati più che sufficienti per uccidere Pons e Fleischmann. Questo è quello che si può chiamare un argomento schiacciante! Non c’è dubbio che quando i ricercatori che si occupavano della fusione appresero la notizia, il 23 marzo, furono alquanto scettici. Una parte dello scetticismo derivava dal fatto che i ricercatori che si occupavano di fusione erano largamente abituati a sensazionali dichiarazioni su incredibili progressi che in breve tempo si rivelavano inconsistenti. Sebbene gli studiosi sulla fusione fossero increduli altri scienziati si mostrarono più intenzionati a prendere qual lavoro sul serio. Pons e Fleischmann se l’erano cavata meglio con i loro colleghi chimici, poiché, nel campo della chimica, dopo tutto, erano riconosciuti come esperti e competenti. Pons e Fleischmann disponevano di due tipi di prove per suffragare le loro affermazioni: l’eccesso di calore e i prodotti nucleari. Queste prove dovevano essere verificate. Eccesso di calore L’esperimento per verificare la presenza di eccesso di calore rappresentava niente più che un problema da fisica di scuola superiore. Fu registrata la potenza in ingresso e quella in uscita dalla cella, incluse tutte le reazioni chimiche conosciute in grado di trasformare l’energia chimica in calore. L’esecuzione dell’esperimento richiedeva un certo periodo di tempo poiché gli elettrodi di palladio dovevano essere caricati completamente con il deuterio (per elettrodi con un diametro di 8 mm questa operazione può richiedere parecchi mesi). L’eccesso di calore si differenziava da cella a cella. Alcune celle non rivelarono affatto la presenza di eccesso di calore. La potenza qualche volta si presentava sottoforma di sovracorrenti transitorie; in un caso fu registrata una potenza emessa quattro volte maggiore a quella iniziale. Tuttavia, più comunemente l’eccesso di calore oscillava fra il 10 e il 25%. Nonostante la capricciosa natura del fenomeno, Pons e Fleischmann confidavano di poter spiegare l’eccesso di calore attraverso argomenti che non facessero riferimento a processi o reazioni chimiche note. Prodotti nucleari La prova più diretta della fusione dovrebbe essere la produzione di neutroni associata ad eccesso di calore. Le prime misure sui neutroni tentate da Pons e Fleischmann erano relativamente rozze e imprecise. La potenza emessa da una cella era confrontata con i livelli di fondo misurati ad una 32 esperimenti prima dell’annuncio di marzo. I risultati ottenuti azzerarono le speranze di realizzare la fusione fredda in Gran Bretagna. I risultati, tuttavia, non convinsero i sostenitori della fusione fredda, come Eugene Mallove, il quale affermò che quasi la metà delle celle erano fatte funzionare con correnti inferiori al livello di soglia per l’attività della cella. Nonostante le diverse interpretazioni dell’esperimento di Harwell, per molti scienziati quella fu l’ultima parola sulla questione della fusione fredda. La difficoltà che i fautori della fusione fredda incontrarono nell’ottenere risultati postiti accettati dalla comunità scientifica è ben illustrata dal destino delle misure sul trizio. Pons e Fleischmann avevano riscontrato tracce di trizio. Ulteriori conferme giunsero dalle ricerche di altri sperimentatori. Tuttavia, dal momento che il trizio è un noto agente contaminante dell’acqua pesante, ecco una “normale” spiegazione per dar ragione di tali risultati. Si è rivelato impossibile convincere gli scettici del fatto che non si fosse verificata alcuna contaminazione, poiché dal loro punto di vista esistevano comunque altri modi in cui eventualmente il trizio poteva entrare nella cella. La completa incomunicabilità fra sostenitori e detrattori, una incomunicabilità accentuata dall’accusa reciproca di comportamento antiscientifico, è tipica delle controversie scientifiche. Gli oppositori sottolineano la preponderanza di risultati negativi per delegittimare il fenomeno controverso e tutti i possibili risultati positivi sono confutati in nome dell’incompetenza, dell’inganno, della frode. I sostenitori, d’altra parte, giustificano i risultati negativi attribuendoli ad un fallimento nel tentativo di riprodurre esattamente le stesse condizioni sperimentali utilizzate per ottenere risultati positivi. I risultati da soli non sembrano in grado di risolvere la disputa. Fusione fredda: un’impossibilità teorica? La battaglia condotta dai sostenitori della fusione fredda era rivolta principalmente contro un retaggio di idee e teorie secondo cui tale fenomeno era considerato impossibile sulla base di considerazioni teoriche. Pons e Fleischmann, come Tandberg precedentemente, nutrivano la speranza che le altissime pressioni all’interno del reticolo di palladio favorissero e incrementassero la fusione del deuterio ma la giustificazione teorica per questo evento era minima. Una delle risposte dei fisici nucleari agli annunci sulla scoperta della fusione fredda è stata la dettagliata analisi delle sue possibilità teoriche. Steven Koonin, fisico teorico del Cal Tech, ha dedicato molto tempo a questo problema. Egli ha soprattutto dimostrato perché la fusione del deuterio all’interno del palladio nella quantità necessaria per produrre eccesso di calore è estremamente improbabile. Koonin ha fatto notare che l’aumento di pressione all’interno del palladio non era sufficiente per innescare la fusione. I suoi calcoli per determinare la probabilità della fusione deuterio-deuterio hanno mostrato che la velocità di tale reazione dovrebbe essere estremamente bassa. Così Koonin, passando in rassegna tutte le possibilità teoriche della fusione fredda durante la riunione del mese di maggio dell’American Physical Society, riuscì a far apparire assurde le giustificazioni teoriche dei sostenitori della fusione fredda. 35 In un contesto in cui le prove sperimentali attendibili andavano rapidamente diminuendo, non c’era da meravigliarsi del fatto che la maggior parte dei fisici era felice di schierarsi con le teorie già accettate. Non c’è dubbio che Koonin rappresenti il punto di vista ordinario e tradizionale. Anche se tutto ciò è tipico di una controversia scientifica in cui l’esperimento sembra essere contrario alla teoria dominante, tuttavia, c’è qualcosa in più da dire. In realtà, durante lo svolgimento dell’evento “fusione fredda”, sono stati proposti numerosi suggerimenti su come si potesse realizzare la fusione su grande scala e anche su come potesse realizzarsi senza produzione di neutroni. Si è discusso di come una rara reazione di fusione senza produzione di neutroni potrebbe essere la sorgente dell’eccesso di calore, con il trasferimento di energia nel reticolo di palladio. Hagelstein ha proposto una “fusione coerente” in cui si verificano catene di reazioni di fusione in una sorta di effetto domino. Quando i risultati sperimentali producono insuccessi, molti teorici non avvertono la necessità di ricorrere a queste idee esotiche. I rischi a cui si va incontro nel propugnare teorie del genere sono ben illustrati dal caso di Hagelstein: sono state fatte pesanti chiacchiere sul gatto che la sua permanenza al MIT fosse in dubbio dopo che egli aveva iniziato a fornire spiegazioni teoriche sulla fusione fredda. Credibilità Nella battaglia fra favorevoli e contrari nell’ambito di una controversia scientifica, la posta in gioco è sempre la credibilità. Quando gli scienziati fanno dichiarazioni che sembrano “incredibili” essi affrontano un’ardua battaglia. Il problema che Pons e Fleischmann dovevano risolvere era che essi godevano di credibilità come elettrochimici ma non come fisici nucleari. Ed era proprio nel campo della fisica nucleare che il loro lavoro avrebbe prodotto un più forte impatto. Qualunque annuncio di una presunta osservazione di un processo di fusione era destinato a pestare i piedi ai fisici che si occupavano della fusione, i quali avevano già avanzato pretese in quest’area di ricerca. Era già stata investita una grande quantità di denaro, uomini e attrezzature in programmi di lavoro sulla fusione termonucleare, e sarebbe stato ingenuo pensare che questo fatto non avrebbe in qualche modo influenzato l’accoglienza riservata a Pons e Fleischmann. Ciò non significa che i fisici nucleari rifiutassero assolutamente queste inaspettate dichiarazioni, o che fosse semplicemente una questione di voler mantenere gli investimenti di miliardi di dollari, o che si trattasse del cieco pregiudizio dei fisici verso i chimici; significa soltanto che nessuno scienziato poteva sperare di sfidare un gruppo di lavoro così solidamente afferrato senza mettere a repentaglio la propria credibilità. Le critiche a Pons e Fleischmann sono state più severe nel campo in cui i fisici si sentivano maggiormente sicuri, cioè riguardo alle misure sulla presenza di neutroni. Presenza di neutroni Per molti fisici le misure relative alla quantità di neutroni presenti avrebbero fornito la miglior prova dell’avvenuta fusione. Eppure, paradossalmente, queste misure costituivano l’argomento più fragile nelle dichiarazioni di Pons e Fleischmann. Le misure erano state eseguite in ritardo e 36 sotto pressioni esterne. Né Pons né Fleischmann erano particolarmente esperti su come condurre tali misure. Fu ad Harwel, durante un seminario tenuto da Fleischmann poco dopo il clamoroso annuncio di marzo, che si manifestarono le prime difficoltà. Fleischmann illustrò le prove che attestavano la presenza di neutroni e mostrò un grafico sull’andamento dei raggi gamma misurati da Hoffmann nella vasca d’acqua che circondava la cella. Ai fisici presenti in sala, che avevano familiarità con tali spettri, sembrò che il picco presente in quel grafico fosse situato ad un livello di energia improprio. Il picco di energia si trovava in corrispondenza di 2,5 MeV, mentre secondo le previsioni teoriche relative ai raggi gamma prodotti dalla cattura neutronica da parte dei protoni si sarebbe dovuto trovare a un’energia di 2,2 MeV. Tuttavia, quando il grafico apparve sul “Journal of Electroanalytical Chemistry”, il picco fu collocato in corrispondenza del corretto valore dell’energia. Se le due versioni siano nate da una “falsificazione” o da errori involontari o da un dubbio sincero su ciò che era stato misurato, è tuttora da verificare. Frank Close, nel suo libro “Too Hot to Handle”, avanza la possibilità che il grafico sia stato deliberatamente contraffatto. Tali accuse, tuttavia, dovrebbero essere accolte con cautela. Le misure volte a rivelare la presenza di neutroni ben presto furono sottoposte ad un più stretto controllo. Richard Petrasso del Plasma Fusion Center del MIT, fece notare che la forma del grafico relativo all’andamento dei raggi gamma sembrava sbagliata. Gli scienziati del MIT realizzarono qualcosa che si potrebbe definire uno scoop scientifico. Reperirono la registrazione di un notiziario che mostrava l’interno del laboratorio di Pons e Fleischmann inclusa una unità di visualizzazione (VDU) del loro spettro dei raggi gamma. La conclusione del gruppo del MIT fu che quel picco era “probabilmente una manipolazione strumentale senza alcuna relazione con le interazioni responsabili della produzione dei raggi gamma”. I resoconti preliminari di queste ricerche furono forniti da Petrasso alla riunione di Baltimora con un effetto estremamente retorico. Insieme ai risultati negativi del Cal Tech, avrebbero prodotto l’impatto decisivo per il destino della controversia che abbiamo tracciato. Le critiche riguardo alle misure sulla presenza dei neutroni vennero infine pubblicate su “Nature” insieme ad una replica di Pons e Fleischmann. La coppia dell’Utah si teneva ora sulla difensiva. I due scienziati pubblicarono l’intero spettro di frequenza dei raggi gamma, facendo vedere che non c’era nessun picco a 2,2 MeV ma annunciando le prove dell’esistenza di un nuovo picco a 2,496 Mev di energia. Nonostante non fossero in grado di motivare la presenza di questo massimo facendo riferimento ad un processo conosciuto di fusione del deuterio, continuarono a sostenere che il massimo era prodotto da radiazione proveniente dalla cella. Il gruppo del MIT replicò a sua volta che il massimo annunciato a 2,496 Mev era in realtà situato a un’energia di 2,8 Mv. Molti scienziati hanno interpretato questo episodio considerandolo il principale indicatore del declino degli argomenti in favore della fusione fredda. Tuttavia, è possibile un’altra interpretazione: le prove più valide a sostegno della fusione fredda rimasero comunque le misure sull’eccesso di calore. Invece, le misure a livello nucleare erano sempre state ambigue perché si erano osservati troppo pochi neutroni. Sforzandosi di ammettere la propria colpa sulla difficoltà di interpretare le reazioni nucleari Pons e Fleischmann stavano cercando di riportare l’attenzione sul 37 insieme agli organismi viventi. Era poco chiaro che cosa si intendesse come aria sterile. La distribuzione dei microorganismi nel mondo circostante, e il loro effetto sull’aria che circolava nelle beute, tutto a quell’epoca, era sconosciuto. Pasteur fece dei tentativi per osservare direttamente i germi. Analizzò al microscopio la polvere contenuta nell’aria e individuò strane sagome a forma di uova che identificò con i germi. Ma erano dotati di vita o erano semplicemente polvere? L’esatta natura della polvere poteva essere stabilita solo attraverso lo stesso procedimento che avrebbe stabilito la natura della decomposizione. Se i germi contenuti nell’aria non potevano essere direttamente osservati, che cosa si poteva utilizzare per rivelare se l’aria immessa in una beuta era contaminata o non lo era? Gli esperimenti eseguiti all’inizio e nella prima metà del XIX secolo, utilizzando aria fatta passare attraverso acidi o prodotti alcalini, riscaldata o filtrata, furono stimolanti ma mai decisivi. Sebbene nella maggior parte dei casi l’immissione di aria sottoposta a questi trattamenti non provocasse la contaminazione di fluidi sterilizzati, la putrescenza aveva luogo in un numero di casi sufficiente da permettere all’ipotesi della generazione spontanea di aver credito. In ogni caso, dove il trattamento dell’aria era stato condotto in maniera esasperata, poteva essere accaduto che la componente vitale che generava la vita fosse stata distrutta, rendendo l’esperimento “vuoto” come l’aria stessa. L’aria poteva provenire da luoghi diversi – alta o bassa montagna, in prossimità di campi coltivati – con l’intenzione di variare la quantità di contaminazione microbica. Per stabilire la connessione fra polvere e germi, si potevano utilizzare altri metodi di filtraggio. Pasteur si servì di beute a collo di cigno. L’imboccatura di tali contenitori era stretta e ripiegata, cosicché la polvere, entrando, sarebbe stata trattenuta dalle pareti umide della beuta e del collo. Gli esperimenti furono eseguiti nei sotterranei del Paris Observatoire, perché in quel luogo l’aria era sufficientemente ferma da impedire alla polvere portatrice di vita di diffondersi. Per ogni risultato in apparenza definitivo, tuttavia, accadeva che un altro sperimentatore riscontrasse la presenza di muffa in ciò che sarebbe dovuto essere una beuta sterile. Le tipologie delle discussioni che impegnavano i protagonisti di queste ricerche potrebbero essere sintetizzate così: Possibili interpretazioni degli esperimenti sulla generazione spontanea Fiducia nell’ipotesi della generazione spontanea* La vita sviluppa nell’aria apparentemente pura *La tabella mostra come i medesimi esperimenti possano supportare ipotesi diverse. 40 SI NO SI Gli esperimenti lo provano (1) Aria accidentalmente contaminata (2) NO Aria privata delle sue proprietà vitali nel processo di purificazione (3) Gli esperimenti lo provano (4) Ci fu un periodo nel 1860 in cui fu conferita grande importanza alle argomentazioni della casella 3 ma questa fase terminò quando gli sperimentatori cessarono di sterilizzare l’aria attraverso mezzi artificiali e andarono alla ricerca di sorgenti di aria pura o di metodo di “filtraggio” a temperatura ambiente. Le convinzioni racchiuse nella casella 2 furono di importanza fondamentale per un più lungo periodo di tempo. L’attenzione generale riservata a questi argomenti permise a Pasteur di definire potenzialmente contaminata tutta l’aria che dava origine alla vita nelle beute sia che egli riuscisse o meno a mostrarlo direttamente. Il dibattito Pasteur-Pouchet Uno specifico episodio della lunga discussione fra Pasteur e coloro che credevano nella generazione spontanea illustra chiaramente molti aspetti di questa vicenda. In quell’occasione il sessantenne Felix Pouchet sembrò far risaltare per contrasto il brillante ruolo del giovane (trentasettenne) Pasteur, in qualità di scienziato sperimentale. Come in tutte le controversie sperimentali sono i dettagli a essere decisivi. La discussione fra Pasteur e Pouchet riguardava ciò che accade quando un’infusione di fieno sterilizzata mediante bollitura viene esposta al contatto con l’aria. È indubbio che l’infusione ammuffisce ma la domanda rimane. Ciò accade perché l’aria gode di proprietà generatrici di vita o perché l’aria contiene “semi” viventi di muffa? Esperimenti “sotto mercurio” Pouchet credeva nella generazione spontanea. Nei suoi primi esperimenti preparò decotti sterilizzati di fieno “sotto mercurio”. Il metodo consisteva nell’immergere tutti i contenitori in una vasca di mercurio in modo che l’aria ordinaria non potesse entrare. Aria appositamente preparata poteva essere introdotta nelle beute attraverso gorgogliamento nella vasca di mercurio. Questo era il modo usuale di immettere gas di prova nei siti sperimentali senza immettere aria ordinaria. Nel caso di Pouchet, era l’aria depurata ad essere immessa per gorgogliamento nel mercurio. Si credeva che l’aria depurata potesse essere ottenuta riscaldando aria ordinaria, o generando ossigeno attraverso la decomposizione di un ossido; casualmente questo ossido era spesso ossido di mercurio, che libera ossigeno se viene riscaldato. Immancabilmente, Pouchet trovò che quando infusioni di fieno depurate venivano preparate sotto mercurio, esposte ad aria pura, si originavano forme di vita. Sembrò allora che, dal momento che tutte le sorgenti organiche erano state eliminate la nuova vita potesse essersi originata spontaneamente. Pouchet iniziò il dibattito con Pasteur inviandogli lettere in cui sottoponeva alla sua attenzione i risultati di questi esperimenti. Pasteur rispose a Pouchet suggerendogli che forse non era stato abbastanza attento e scrupoloso: “…nei tuoi recenti esperimenti hai involontariamente introdotto aria comune (contaminata), cosicché le conclusioni a cui sei giunto non sono basate su fatti di irreprensibile precisione” (argomentazione di tipo 2). Se Pouchet aveva trovato forme di vita dopo aver introdotto aria sterilizzata in infusioni di fino sterilizzate, allora l’aria doveva essere stata contaminata. In seguito, Pasteur avrebbe dichiarato che era il mercurio ad essere contaminato da microorganismi – che si trovavano nella polvere sulla superficie del mercurio stesso – ed ecco individuata l’origine dei germi contaminanti. 41 Ciò è interessante perché sembra che l’ipotesi del mercurio contaminato fosse necessaria per spiegare alcuni dei primi risultati ottenuti da Pasteur. Nei suoi primi tentativi di evitare la formazione di elementi viventi, egli registrò risultati positivi solo nel 10% dei suoi esperimenti. Nonostante non conoscesse l’origine della contaminazione, Pasteur non accettò questi risultati come una prova a sostegno dell’ipotesi della generazione spontanea. Pasteur era così fermo nella sua opposizione all’ipotesi della generazione spontanea che preferiva credere a qualche sconosciuto difetto nel suo svolgimento dell’esperimento, piuttosto che pubblicare i risultati ottenuti. Egli definì un insuccesso gli esperimenti che sembravano confermare la generazione spontanea, e viceversa. Analizzando a posteriori questo evento, dobbiamo lodare la preveggenza di Pasteur. Egli aveva ragione e aveva il coraggio delle sue convinzioni fino al punto di rifiutare di essere influenzato da ciò che sembrava una indicazione sperimentale opposta. Ma fu davvero preveggenza. Non fu una semplice applicazione del metodo scientifico. Se Pasteur, come Pouchet, avesse sostenuto l’ipotesi errata, oggi noi definiremmo le sue azioni come una “caparbia ostinazione di fronte alla verità scientifica”. Le ottime intuizioni sono un alleato pericoloso nella storia della scienza. Le beute vengono esposte in altura La questione degli esperimenti sotto mercurio era solo la schermaglia preliminare. Il cuore del dibattito iniziò con gli esperimenti di Pasteur sulle beute esposte all’aria in alta montagna, e con la confutazione di Pouchet. Pasteur preparò beute con imboccature forgiate e allungate a fuoco. Fece bollire un’infusione di lievito in acqua e zucchero e sigillò il collo delle beute una volta fuoriuscita l’aria. Se le beute non venivano aperte, il loro contenuto rimaneva invariato. Pasteur, in seguito, portò le beute in luoghi situati a diverse altitudini e ruppe l’estremità del loro collo, esponendo all’aria le infusioni. Per immettere l’aria entro ciò che doveva essere privo di germi egli spezzò l’imboccatura con un lungo paio di pinze che dovevano essere sottoposte alla fiamma, mentre le beute erano tenute sopra il suo capo in modo da evitare la contaminazione con i suoi vestiti. Una volta entrata l’aria del luogo prescelto, Pasteur sigillò di nuovo a fuoco il collo delle beute. Scoprì che nella maggior parte delle beute esposte all’aria in luoghi comuni si producevano muffe, mentre quelle esposte all’aria in alta montagna raramente subivano dei cambiamenti. Nel 1863, Pouchet sfidò Pasteur e i suoi risultati. Con due collaboratori si diresse sui Pirenei per ripetere gli esperimenti di Pasteur. In questo caso, tutte e 8 le beute esposte all’aria in alta montagna manifestarono la presenza di muffe, e ciò suggerì che persino l’aria incontaminata fosse sufficiente per dare inizio a un processo di generazione della vita. Pouchet dichiarò di aver seguito tutte le indicazioni e precauzioni di Pasteur, eccetto il fatto che aveva utilizzato una lima sterilizzata sulla fiamma invece delle pinze per aprire le beute. I peccati della commissione Nella struttura altamente centralizzata della scienza francese della metà del XIX secolo, le dispute scientifiche erano risolte da apposite commissioni dell’Academie des Sciences con sede a Parigi, che avevano l’incarico di decidere sulla questione controversa. I responsi di tali commissioni divennero l’opinione quasi ufficiale di tutta la comunità scientifica francese. Due commissioni successive indagarono la controversia relativa all’ipotesi della generazione spontanea. La prima, istituita prima degli esperimenti condotti da Pouchet sui Pirenei, offriva un premio a “colui che 42 È oggi assodato che una parte consistente della grande quantità di energia generata in occasione dei violenti eventi che accadono nell’universo, dovrebbe essere dissipata sotto forma di radiazione gravitazionale, è quest’ultima che si potrebbe rivelare sulla Terra. Esplosioni di supernovae, buchi neri e stelle binarie dovrebbero produrre considerevoli flussi di onde gravitazionali rivelabili sulla Terra sotto forma di una minima oscillazione del valore di “G” – la costante legata alla spinta gravitazionale di un oggetto sull’altro, misurare “G” è già di per sé abbastanza difficile. Cercare la radiazione gravitazionale è incredibilmente difficile perché l’effetto di un impulso di onda gravitazionale è niente più che una minima fluttuazione della minuscola forza di attrazione tra due masse. La tecnica standard per rivelare la radiazione gravitazionale fu progettata per la prima volta da Weber alla fine degli anni ’60. Egli cercava dei cambiamenti nella lunghezza (deformazioni) di una sbarra massiccia di una lega di alluminio, provocati, in effetti, dai mutamenti nell’attrazione gravitazionale fra le sue parti. Non ci si poteva aspettare che una barra di questo tipo, spesso del peso di parecchie tonnellate, alterasse le sue dimensioni di un fattore superiore ad una frazione del raggio di un atomo, al passaggio di un impulso di radiazione gravitazionale. Fortunatamente, la radiazione è una oscillazione e, se le dimensioni della barra sono convenienti, quest’ultima vibrerà, o “suonerà” come un campanello, alla stessa frequenza della radiazione. Ciò significa che l’energia dell’impulso può essere ricondotta a qualcosa di misurabile. L’antenna a sbarra progettata da Weber comprende una barra massiccia e qualche strumento per misurare le sue vibrazioni. La maggior parte dei progetti utilizzava cristalli pizoelettrici (che rispondono elettricamente ad uno sforzo meccanico) incollati, o altrimenti fissati, sulla barra. Quando questi cristali subiscono una deformazione, essi producono un potenziale elettrico. Il segnale di tensione generato da questi cristalli deve essere amplificato per poter essere misurato. Una volta amplificati, i segnali possono essere tradotti graficamente per mezzo di un registratore su carta, o immessi in un calcolatore per una analisi immediata. Tali dispositivi non rivelano in realtà le onde gravitazionali, ma rivelano le vibrazioni interne di una sbarra di metallo. Non riescono a distinguere fra vibrazioni dovute a radiazione gravitazione e vibrazioni prodotte da altre forze. Quindi, per tentare seriamente di rivelare onde gravitazionali, la sbarra deve essere isolata da tutte le fonti di disturbo. Weber tentò di attuare tutte le più drastiche misure di isolamento, tenendo in sospensione la sbarra racchiusa in una camera a vuoto di metallo, appendendola a un sottile cavo. Il sistema di sospensione era isolato utilizzando strati di piombo e lastre di gomma accatastati. Nonostante queste precauzioni, la sbarra non è completamente immobile in condizioni ordinarie. Se viene mantenuta ad una temperatura superiore allo zero assoluto, ci saranno vibrazioni provocate dai movimenti casuali dei suoi atomi (rumore termico). Occorre quindi fissare la soglia oltre la quale un picco identifica un’onda di gravità piuttosto che un rumore indesiderato. Per quanto sia alta la soglia, ci si deve aspettare che occasionalmente una cresta dovuta interamente ad effetti di rumore esterno superi il livello di tale soglia. Per essere sicuri di poter rivelare alcune onde gravitazionali è necessario stimare il numero di creste “accidentali” ottenute come risultato del solo rumore, e poi assicurarsi che il numero totale delle creste che attraversano il livello di soglia sia comunque maggiore. Nel 1969, Weber dichiarò di aver rivelato l’equivalente di circa 7 picchi al giorno che non potevano essere addebitati ad effetti esterni di rumore. 45 Valutazione attuale delle affermazioni di Weber e della radiazione gravitazionale Le dichiarazioni di Weber sono oggi quasi universalmente screditate. Nondimeno, le ricerche sulla radiazione gravitazionale continuano. Le ricerche di Weber furono accolte con scetticismo poiché sembrava che egli avesse rivelato una quantità fin troppo elevata di radiazione gravitazionale per essere compatibile con le odierne teorie cosmologiche. Se i risultati di Weber venivano estrapolati, assumendo un universo uniforme, e assumendo che la radiazione gravitazionale non fosse concentrata entro le frequenze che Weber riusciva meglio a rivelare, allora la quantità di energia che veniva apparentemente generata indicava che il cosmo si sarebbe dovuto consumare in un tempo molto breve – cosmologicamente parlando. Questi calcoli suggeriscono che Weber avesse sbagliato di molto. I dispositivi che si stanno sviluppando oggi sono progettati per rivelare i flussi di radiazione molto più bassi previsti dai cosmologi. Nonostante i primi risultati non siano stati accreditati nel mondo scientifico a causa dell’enorme quantità di radiazione che egli affermava di osservare, Weber riuscì alla fine a convincere gli scienziati a prenderlo sul serio. All’inizio degli anni ’70, indirizzò il suo lavoro verso strade nuove e ingegnose, inducendo altri laboratori a tentare di replicare le sue scoperte. Una delle nuove prove più importanti fornite da Weber fu che potevano essere rivelati picchi al di sopra del livello di soglia simultaneamente su due o più rivelatori situati a una distanza di circa 1000 km. A prima vista sembrò che solamente perturbazioni esterne al campo terrestre, come le onde gravitazionali, potessero essere responsabili di queste osservazioni simultanee. Un’altra prova fu la scoperta da parte di Weber della presenza di creste nell’attività del suo rivelatore che comparivano ogni 14 h circa. Ciò suggerì che la causa di questa attività avesse qualcosa a che fare con la rotazione della terra (la radiazione probabilmente proveniva da una direzione ben precisa nello spazio). Per di più, la periodicità inizialmente sembrava dipendere dall’orientamento della terra rispetto alla galassia, piuttosto che rispetto al sole – la periodicità era cioè collegata al giorno astronomico. Tale considerazione era particolarmente significativa poiché, a causa della rotazione della terra intorno al sole, ciò implicava che il momento della giornata di massima sensibilità del rilevatore cambiasse con le stagioni (la geometria è la stessa dell’esperimento di Michelson-Morley). Ciò suggerì che la sorgente dovesse trovarsi al di fuori del sistema solare. Questo effetto divenne famoso con il nome di “correlazione siderea” ad indicare che il massimo periodo di attività del rivelatore era legato alla posizione della terra rispetto alle stelle piuttosto che rispetto al sole. Convincere gli altri A questo punto vale la pena notare che, di fronte alle inaspettate dichiarazioni di Weber, è necessario fare molto di più che riportare risultati sperimentali, per convincere altri scienziati a considerare questo lavoro in maniera sufficientemente seria da prendersi il disturbo di fare dei controlli! Per avere una qualunque possibilità che l’esito di un esperimento diventi un risultato consolidato occorre, che tale risultato “esca dai confini” del laboratorio di colui che per primo l’ha ricavato. Riuscire a convincere altri scienziati a tentare di confutare un’affermazione è un primo utile passo. La prima elaborazione sperimentale eseguita da Weber fu la dimostrazione che i segnali provenienti da 2 o più rivelatori posti a grande distanza l’uno dall’altro arrivavano in coincidenza. Alcuni scienziati la trovavano convincente. 46 D’altra parte, alcuni scienziati credevano che queste coincidenze potessero essere prodotte abbastanza facilmente in maniera casuale, o da fattori di natura elettrica, o da qualche effetto esterno. Un’altra elaborazione proposta da Weber riguardava la possibilità di eseguire un esperimento inserendo un ritardo di tempo in un canale, prima di confrontare tale segnale con quello proveniente da un rivelatore a distanza. In queste circostanze le coincidenze dovrebbero scomparire; cioè, ogni eventuale coincidenza dovrebbe essere esclusivamente un prodotto del caso. Weber mostrò che il numero di segnali coincidenti in effetti diminuiva in un esperimento con un ritardo di tempo, suggerendo che tali coincidenze non dipendessero dalla struttura elettronica o dal caso. Numerosi scienziati commentarono “.. l’esperimento con il ritardo temporale è molto convincente”, mentre altri non ne furono così persuasi. La scoperta di Weber della correlazione fra i massimi nell’attività delle onde gravitazionali e il tempo sidereo era il fatto più straordinario e richiedeva, secondo alcuni scienziati una spiegazione. Individuare la giusta elaborazione sperimentale per convincere altri scienziati richiede una abilità tanto retorica quando scientifica. Il regresso dello sperimentatore Durante il 1972, numerosi altri laboratori avevano costruito o stavano costruendo antenne per cercare di captare la radiazione gravitazionale. Altre 3 avevano già funzionato per un periodo di tempo sufficientemente lungo da essere pronte per fornire al mondo scientifico un resoconto sui risultati sperimentali negativi riportati. Ora proviamo ad immaginare i problemi di uno scienziato che cerca di duplicare l’esperimento di Weber. Tale scienziato ha costruito un dispositivo e lo ha osservato per svariati mesi mentre esso produceva metri e metri di scarabocchi su un registratore di carta. Il problema è: fra quegli scarabocchi ci sono dei massimi che rappresentano veri impulsi di onde gravitazionali, piuttosto che il semplice rumore? Se la risposta sembra essere “no” allora la domanda consiste nel chiedersi se è giusto pubblicare i risultati, dichiarando che Weber aveva torto. Potrebbe essere che ci siano realmente onde gravitazionali ma l’esperimento che ha dato un risultato negativo è fallito per qualche ragione (es. soglia sbagliata, amplificatore non sensibile, sistema di sospensione non appropriato ecc.). Se le cose stessero così allora nel registrare la loro non esistenza, lo scienziato avrà rivelato la propria incompetenza a livello sperimentale. La domanda da porsi nei casi di scienza difficile è “Qual è il risultato corretto?”. Ovviamente, la conoscenza del risultato corretto non può fornire una risposta. Il risultato corretto è la rivelazione delle onde gravitazionali o la non rivelazione delle onde gravitazionali? Dal momento che l’esistenza delle onde gravitazionali è il punto in questione, è impossibile conoscere la risposta all’inizio. Quindi, quale che sia il risultato corretto dipende dal fatto che ci siano o no onde gravitazionali che colpiscono la Terra attraverso flussi rivelabili. Per scoprirlo, dobbiamo costruire un buon rivelatore di onde gravitazionali e guardare. Ma non sappiamo se abbiamo costruito un valido rivelatore fino a che non lo abbiamo messo alla prova e ottenuto il risultato corretto. Ma non sappiamo quale sia il risultato corretto fino a che… e così via, ad infinitum. Questo circolo vizioso è chiamato il “regresso dello sperimentatore”. L’attività sperimentale può essere utilizzata come test solo se si riesce in qualche modo a interrompere questa catena 47 Una delle caratteristiche del sistema di lavoro di Weber, che è raro trovare in altri scienziati, fu la sua dedizione. Weber visse a stretto contatto il suo apparato sperimentale e questa è una cosa di estrema importanza. Questa caratteristica dell’attività sperimentale deve rendere gli scienziati cauti nel trarre conclusioni drastiche da una serie di risultati negativi. È un altro modo per esprimere il regresso dello sperimentatore. In che modo acquisirono una sicurezza tale da poter condannare la validità delle scoperte di Weber? Come si concluse il dibattito Durante il 1975, quasi tutti gli scienziati erano d’accordo nel sostenere che l’esperimento di Weber non era corretto, ma le loro motivazioni a questo proposito erano alquanto diverse. Alcuni si erano convinti poiché nel corso dell’esperimento egli aveva commesso un errore piuttosto evidente nella programmazione del suo calcolatore; altri pensavano che l’errore fosse stato corretto in maniera soddisfacente prima che avesse provocato troppi danni. Alcuni pensavano che l’analisi statistica dei livelli del rumore di fondo e il numero di creste residue dopo la depurazione da tale “fondo” fossero inadeguati, altri non lo consideravano un punto decisivo. Weber aveva anche commesso uno sfortunato errore quando aveva dichiarato di aver trovato segnali coincidenti fra il suo rivelatore e quello di un laboratorio completamente indipendente. Risultò che a causa di un pasticcio con i fusi orari, le due sezioni di nastro che egli aveva confrontato erano state registrate a più di 4 ore di distanza, cosicché egli stava in realtà ricavando un immaginario segnale da ciò che doveva essere stato puro rumore di fondo. Ancora una volta, tuttavia, non fu difficile trovare scienziati che pensavano che il danno non fosse stato poi così grande, dal momento che il livello del segnale registrato era poco significativo a livello statistico. Un’altra circostanza considerata importante da alcuni era che Weber non riusciva ad aumentare, col passare degli anni, il rapporto segnale-rumore relativo ai suoi risultati. Ci si aspettava che, migliorando le prestazioni tecniche del suo strumento, il segnale sarebbe diventato più forte. In realtà, il segnale pulito sembrava diminuire di intensità. In aggiunta, la correlazione con il tempo sidereo si era dissolta. Ancora una volta, tuttavia, queste critiche erano considerate decisive solo da uno o due scienziati; dopo tutto, non esiste nessuna garanzia che una sorgente cosmica di onde gravitazioni debba rimanere stabile. È innegabile che i risultati quasi uniformemente negativi riportati da altri laboratori fossero una questione importante. Nondimeno tutti gli esperimenti negativi (6) furono rigidamente criticati da Weber e, per di più, 5 di questi furono criticati da uno o più degli oppositori di Weber. Il solo esperimento che rimase estraneo alle critiche da parte degli oppositori di Weber era stato ideato per essere il più possibile una copia esatta del progetto iniziale di Weber. Nessuno lo considerò cruciale. Ciò che sembra essersi rivelato decisivo nel dibattito fu la critica tagliente, l’analisi accurata e lo stile comparativo di uno dei più potenti membri della comunità scientifica, Richard Garwin. In effetti, l’esperimento che Garwin e il suo gruppo avevano eseguito era banale, ma la cosa più importante fu il modo in cui presentarono un resoconto dettagliato della faccenda, tutti gli altri erano terribilmente indecisi, Garwin no. Quando furono resi noti nel 1972, i primi risultati negativi erano accompagnati da una attenta analisi di tutte le possibilità logiche di errore. I primi scienziati che avevano criticato Weber fecero 50 le loro scommesse pro e contro. Subito dopo uscì il dettagliato resoconto di Garwin che comprendeva un’accurata analisi dei dati e la drastica dichiarazione secondo cui i risultati erano “in netto conflitto con quelli riportati da Weber”. Quindi ciò ha messo in modo una valanga e in seguito nessuno ha visto più nulla. Per quanto riguarda i risultati sperimentali, l’immagine che emerge è che la serie di esperimenti negativi diede l’avvio alle pubblicazioni fortemente critiche verso i risultati ottenuti da Weber, ma che la certezza dell’inattendibilità delle scoperte di Weber si consolidò solamente dopo che una “massa critica” di resoconti sperimentali aveva contribuito a costruirla. Garwin credeva fin dall’inizio che Weber avesse torto. Così si assicurò che alcuni degli errori di Weber ricevessero ampia diffusione durante una conferenza e scrisse una “lettera” indirizzata a una rivista divulgativa che comprendeva il seguente brano: “È stato dimostrato che in un determinato nastro quasi tutte le cosiddette coincidenze reali erano create una ad una da questo unico errore di programmazione. Così non soltanto alcuni fenomeni oltre le onde gravitazionali potevano causare, ma in effetti causavano davvero, quella percentuale eccessiva di coincidenze con ritardo temporale nullo”. E l’affermazione: “Il gruppo di Weber non ha pubblicato alcuna prova credibile per suffragare le sue affermazioni sulla presunta rivelazione di onde gravitazionali”. A questo punto non si stava più facendo della fisica. Quindi, senza l’intervento di Garwin e del suo gruppo è difficile immaginare in che mood la controversia sulle onde gravitazionali sarebbe potuta giungere a una conclusione. Che tale contributo fosse necessario è una conseguenza del regresso dello sperimentatore. Conclusione Abbiamo indicato in che modo il regresso dello sperimentatore fu risolto nel caso delle onde gravitazionali. Il peso crescente dei risultati negativi, tutti non decisivi singolarmente, fu fissato nella sostanza da Garwin. Dopo le sue dichiarazioni solamente gli esperimenti che riportavano risultati negativi furono tenuti in considerazione. Riportare un risultato sperimentale non è in sé stesso sufficiente per dare credibilità ad una affermazione insolita. Weber dovette approntare una lunga serie di modificazioni ai suoi esperimenti prima che le sue affermazioni ricevessero una significativa accoglienza. Quindi, una volta che la controversia fu avviata, una combinazione di teoria ed esperimento da soli non fu sufficiente per risolvere i problemi in questione; c’era di mezzo il regresso dello sperimentatore. È importante far notare che la scienza delle onde gravitazionali dopo la soluzione della controversia non somiglia affatto alla scienza delle onde gravitazionali prima di tale soluzione. Prima della soluzione c’era una vera e sostanziale incertezza. Dopo la soluzione ogni cosa era stata chiarita; gli intensi flussi di onde gravitazionali non esistono e solamente gli scienziati incompetenti pensano di poterli osservare. Naturalmente, il modello mostra anche che una controversia, una volta chiusa la questione, può in linea di principio essere riaperta. Joseph Weber ha continuato a pubblicare articoli che forniscono nuovi argomenti e nuove prove a sostegno delle sue convinzioni. La domanda è: attireranno l’attenzione della comunità scientifica? 51 La scienza delle onde gravitazionali nel 1972 è un tipo di scienza scarsamente conosciuto o difficilmente capito dagli studenti di discipline scientifiche. È un tipo di scienza che i ricercatori scientifici potranno un giorno trovarsi ad affrontare ed è quel tipo di scienza che la gente deve considerare quando si trova ad ascoltare una deposizione giudiziaria come membro di un tribunale, o quando partecipa ad inchieste pubbliche su questioni tecniche, o quando è chiamata al voto per decidere su questioni tecniche che hanno un impatto anche sociale. Per molte ragioni è importante capire questa insolita faccia della scienza tanto quando lo è capire la sua controparte tradizionale. 6.La vita sessuale delle lucertole dalla coda frustata Introduzione David Crews, professore di zoologia e psicologia all’Università del Texas trascorse molto tempo osservando le bizzarre attività sessuali di rettili come lucertole e serpenti. La nostra attenzione si concentrerà sul comportamento sessuale di una particolare specie di lucertole a coda di frusta. Per introdurci all’oggetto degli studi di Crews ci occuperemo del suo meno controverso lavoro sul serpente corallo giarrettiera. L’ambiente del Canada occidentale offre forse le più difficili condizioni di vita incontrate da un essere vertebrato sul pianeta. È qui che vive il serpente giarrettiera. Per sopravvivere al lungo inverno artico, i serpenti hanno imparato il trucco della crioconservazione. Il loro sangue diventa estremamente denso, e le funzioni vitali dell’organismo si interrompono quasi completamente, mostrando livelli di attività scarsamente rilevabili. Tuttavia, quando arriva la primavera, tali serpenti subiscono una rapida trasformazione in preparazione all’accoppiamento. L’accoppiamento avviene in un breve, intenso periodo. I maschi si risvegliano per primi dal loro lungo congelamento invernale e trascorrono un periodo di tempo che varia dai 3 giorni alle 3 settimane crogiolandosi al sole vicino all’ingresso della tana. Quando si risvegliano le femmine, i maschi sono attratti da un feromone che si trova sulle loro schiene. Un gruppo di maschi, che può raggiungere le 100 unità, si raduna intorno alla femmina e forma un “gomitolo di accoppiamento”. Una volta che un maschio riesce ad accoppiarsi, gli altri si disperdono. La femmina che si è accoppiata si allontana dal luogo. I maschi si radunano di nuovo, aspettando sull’ingresso della tana l’uscita di altre femmine con cui accoppiarsi. Per quale motivo i biologi sono interessanti a questi rituale così curioso? Crews è un neuroendocrinologo del comportamento. Studia l’evoluzione dei meccanismi fisiologici che controllano la riproduzione e il comportamento sessuale. Il serpente giarrettiera è particolarmente interessante secondo Crews per il modo in cui il suo comportamento sessuale e la sua fisiologia si sono adattati alle richieste dell’ambiente. Per Crews, il comportamento dei serpenti giarrettiera rappresentava un esempio particolarmente significativo di come i fattori ambientali possono influenzare l’evoluzione e lo sviluppo di vari aspetti del processo riproduttivo. L’interesse di Crews per la fisiologia riproduttiva è alquanto in disaccordo con gli approcci tradizionali allo studio dei rettili. Il suo lavoro si trova a metà fra gli interessi dell’erpetologo (che studia la storia naturale dei rettili) e quelli del neuroendocrinologo (che confronta vari sistemi di controllo ormonale senza collegare il loro funzionamento al comportamento sessuale). Grazie al suo interesse per l’evoluzione e per il confronto fra diverse specie, il lavoro di Crews suscita anche 52 competenze diventa invece importante durante una controversia, ecco che iniziamo a scoprire che cosa partecipa alla realizzazione della scienza. Processi che sono solitamente nascosti si fanno visibili. Ironia della sorte, quando Crews e i suoi collaboratori risposero a Cuellar, gli ritorsero contro le sue stesse argomentazioni riguardo alla sua scrupolosità e alla sua esperienza. Essi interpretarono la sua ammissione di aver effettivamente osservato la pseudocopulazione fra le lucertole come una conferma delle loro stesse osservazioni. In seguito, continuarono ad attribuire al suo atteggiamento pregiudiziale la sua incapacità di riconoscere l’importanza di tale osservazione. Questo fa parte di una strategia generale utilizzata da Crews contro i suoi oppositori, in nome della quale egli li descrive come arretrati, legati ai modelli, e invischiati nelle vecchie tradizioni, piuttosto che ricettivi e pronti a vedere che cosa c’era da vedere. Questa strategia da “sovversivo” non è insolita nelle controversie scientifiche. Parte delle argomentazioni che riguardano la competenza si focalizza sulla discussione dell’affidabilità degli osservatori. In questo caso, i critici affermavano che Crews e Fitzgerald non erano stati sufficientemente accurati nelle loro osservazioni. L’argomento dell’accuratezza può essere un’arma a doppio taglio. Questa strategia fu seguita da Crews e dal suo gruppo in risposta a Cole e a Townsend; essi sollevarono critiche sull’apparente mancanza di rigore nelle metodologie seguite. Fecero notare che Cole e Townsend valutavano la condizione riproduttiva delle lucertole da una ispezione a livello ottico della dilatazione addominale. Ciò è inadeguato poiché è risaputo anche la palpazione. Con una massa ingegnosa, in realtà chiamavano in causa un altro oppositore di Crews, Cuellar, a sostegno di questa loro obiezione. Ma il punto in questione è proprio stabilire che cosa si dovrà scoprire. Se si è convinti che la pseudocopulazione sia un fenomeno autentico, allora Crews appare come colui che ha eseguito un lavoro attento e scrupoloso e i suoi collaboratori appaiono negligenti e superficiali; viceversa, se la pseudocopulazione è considerata un comportamento indotto, allora sono i suoi oppositori ad essersi comportati con accuratezza e Crews è stato invece superficiale. La scrupolosità di per sé stessa non fornisce strumenti indipendenti e obiettivi per risolvere una disputa. Eccoci in pieno regresso dello sperimentatore. Se le attribuzioni generali di abilità e competenza non possono sedare la controversia che cosa possiamo dire dei meri dati di fatto? I dati di fatto sono inseparabili dalle capacità degli scienziati impiegate per produrli. La questione della competenza è ancora e comunque in primo piano. L’affermazione fatta da Cuellar, e da Cole e Townsend, secondo cui il comportamento di pseudocopulazione delle lucertole deriva dalle condizioni di sovraffollamento in cui sono obbligate a vivere in cattività costituiva il fulcro della controversia. Crews affermava che i suoi oppositori non presentavano dati precisi per mostrare che le condizioni di sovraffollamento inducono una pseudocopulazione non naturale. Questa controversia in ambito biologico sembra diversificarsi dalle controversie in ambito fisico esaminate poiché, nel corso della controversia furono prodotte pochissime nuove informazioni. I motivi del contendere sembrano essere costantemente spostati nel tentativo di trovare la giusta interpretazione delle osservazioni precedenti. In ambito fisico, gli esperimenti hanno il compito di mettere a fuoco le ragioni del dibattito. In questo campo della biologia, gli esperimenti sono raramente possibili. Invece, l’attenzione viene costantemente rivolta alla ricerca delle prove e degli 55 esperimenti di cui è in difetto la parte avversa – come, ad esempio, la prova sulle condizioni di sovraffollamento ritenute responsabili della pseudocopulazione, citata da Crews in risposta a Cole e Townsend. La più importante prova negativa nell’intero dibattito è semplicemente che nessuno ha mai assistito a una pseudocopulazione di lucertole nel loro habitat naturale. Cole e Townsend enfatizzarono molto questo punto, ricordando che il più completo studio di Cnemidophorus allo stato naturale non include tali fenomeni. Come ci si potrebbe aspettare, la reazione di Crews e del suo gruppo fu altrettanto incisiva. Ancora una volta essi capovolsero la situazione a svantaggio dei loro oppositori. Essi rimarcarono che tale comportamento poteva benissimo verificarsi, ma le osservazioni delle lucertole nel loro habitat naturale erano in grado di documentarlo? Cnemidophorus è una specie molto timida e persino nelle lucertole che conducono una ordinaria attività sessuale raramente si osservano accoppiamenti. “Morsi per amore e cenni di zampa” Spesso, nel corso di una controversia scientifica, alcune piccolezze precedentemente ignorate diventano estremamente importanti, oggetto di accese discussioni. Dal momento che entrambe le parti in causa cercano di sollevare dubbi e obiezioni sugli argomenti dell’altra, erano in gioco elementi di prova sempre nuovi. Nel caso in esame, era diventato significativo sia il numero di “morsi per amore” che le lucertole passive subivano sia il fatto che esse agitassero o no le loro zampe in segno di sottomissione sessuale. Cuellar argomentò che nelle numerose specie che egli aveva osservato allo stato naturale, aveva raramente assistito a qualcosa di simile ai “morsi della copulazione” e soprattutto se li sarebbe aspettati se la pseudocopulazione fosse stata un fatto ordinario. Per tutta risposta Crews e il suo gruppo ribaltarono quella obiezione sottolineando che, se Cuellar aveva ragione, allora questo implicava che neppure le lucertole dotate di una vita sessuale ordinaria si sarebbero dovute accoppiare! Essi suggeriscono che tali morsi non costituivano un codice naturale del comportamento di coppia. Per cercare di suffragare questa loro convinzione, esaminarono i cadaveri di 1000 femmine di lucertola appartenenti ad una ordinaria specie bisessuale e riscontrarono che soltanto il 3% di queste aveva segni sul dorso e sui fianchi e che la stessa percentuale di maschi possedeva tali segni. I segni sul corpo, dal momento che si trovavano anche sui maschi, probabilmente dipendevano da un comportamento aggressivo. Cole e Townsend criticavano Crews per aver sufficientemente ed “erroneamente” interpretato il movimento verso l’alto delle zampe da parte delle lucertole come un indicatore di remissività. Al contrario, essi ritenevano che si trattasse semplicemente di un indicatore del “godimento” della lucertola. Ancora una volta venne messa sotto accusa la competenza dei ricercatori. Un ricercatore che non riesce a distinguere un atto di godimento da un cenno intenzionale degli arti ha qualche problema di credibilità. Una dignitosa parità A che punto è attualmente questa controversia? Oggi l’opinione generale è che Crews e i suoi oppositori abbiano combattuto ottenendo una dignitosa parità. 56 L’imparziale descrizione che abbiamo cercato di presentare nel seguire l’evoluzione e lo svolgimento del dibattito non sarà condivisa dai protagonisti. Le loro argomentazioni e le loro posizioni sono interessanti, ma per loro davvero irresistibili. Molti scienziati si guardano bene dal rimanere coinvolti in dispute e controversie, e le considerano un ricettacolo di scienza scadente. Ciò può voler dire che l’atteggiamento di chi si rifiuta di riconoscersi come parte in causa di una controversia, forse rappresenta una mossa tattica all’interno di tali dispute. È questo il caso della controversia sulle lucertole. Nello scrivere i loro articoli sulla rivista “Scientific American”, entrambi i protagonisti evitarono di fare esplicito riferimento alla controversia. Una maniera per concludere una controversia consiste nel riscrivere la storia in modo che la disputa sembri prematura: una serie di prese di posizione troppo drastiche relative a un campo ancora in via di sviluppo. Per Crews si trattò di un dibattito in cui le premesse furono sbagliate fin dall’inizio, caratterizzato dalla mancanza di valide verifiche sperimentali e prove decisive. Una domanda è rimasta senza risposta. Le lucertole della specie Cnemidophurus manifestano davvero la pseudocopulazione e essa è significativa per la loro riproduzione? Nonostante siano trascorsi anni di discussioni ancora oggi non si è trovata una risposta. Secondo un gruppo di stimati scienziati la risposta è sì; secondo un altro gruppo no. Come sempre accade, le verità della natura vengono stabilite nell’ambito della disputa fra esseri umani. 7.Analisi del cuore del sole: la strana storia dei neutrini solari mancanti Le numerose stelle che vediamo splendere nel cielo notturno hanno una cosa in comune. Convertono la materia in energia attraverso un processo conosciuto con il nome di fusione nucleare. La storia mutevole delle stelle, incluso il nostro sole, è descritta dalla teoria dell’evoluzione stellare: una delle teorie basilari della moderna astrofisica. Per astronomi e astrofisici, la teoria dell’evoluzione stellare è oggi data per scontata nella stessa misura in cui lo è la teoria evoluzionistica di Darwin per i biologi. Eppure, nonostante l’innegabile successo di tale teoria, la sua assunzione fondamentale – che cioè la fusione nucleare sia la sorgente dell’energia di una stella – è stata verificata direttamente solo in tempi recenti. Nel 1967, Ray Davis cercò di rivelare i neutrini solari: particelle subnucleari prodotte dalla fusione nucleare del nostro sole. Si trattava del primo test sperimentale diretto della teoria dell’evoluzione stellare. Gli altri tipi di radiazione prodotti dal sole il risultato di processi che hanno avuto luogo milioni di anni fa. Per esempio, i raggi di luce impiegano milioni di anni per fuoriuscire dall’interno del sole durante il loro percorso fino alla superficie. I neutrini, dal momento che interagiscono in scarsa misura con la materia, fuoriescono agevolmente dal sole, la loro rivelazione sulla terra ci potrebbe dire cosa stava accadendo nel cuore del sole solo 8 minuti prima (il tempo che i neutrini impiegano per propagarsi dal sole alla terra). I neutrini solari forniscono una prova diretta della possibilità che la nostra stella più vicina, il sole, tragga la sua energia da un processo di fusione termonucleare. Proprio perché i neutrini interagiscono così poco con la materia, è difficilissimo rivelarli. In media un neutrino può percorrere un milione di milioni di Km attraverso un piombo che prima venga 57 sviluppato un promettente sistema di rivelazione, ma non aveva neutrini di rivelare. Fu William Fowler che gli offrì la chiave per risolvere questo dilemma. Collaborazione con il Cal Tech Al Cal Tech, William Fowler stava seguendo molto da vicino il lavoro di Davis. L’astrofisica nucleare era nata come disciplina verso la fine degli anni ’30. Alla fine degli anni ’50, dopo molte misure di reazioni nucleari eseguite in laboratorio, erano stati determinati i cicli dettagliati delle reazioni nucleari nel nostro sole. Nel 1957 venne presentata da Fowler e dai suoi collaboratori del Cal Tech una teoria generale sui meccanismi attraverso cui elementi leggeri sono sintetizzati in elementi più pesanti all’interno delle stelle. Questo fu uno dei punti cardinali di tale disciplina – sembrò fornire una spiegazione di come si potevano ricavare tutte le sostanze più note a partire dall’elemento più leggero (idrogeno). Nel 1958 fu nuovamente misurata una velocità di reazione essenziale per la realizzazione del ciclo di reazioni nucleari del sole e fu scoperto un errore. Sembrava che il sole producesse alcuni neutrini ad energia piuttosto alta, che Davis doveva essere in grado di rivelare. Fowler avvertì Davis di tale possibilità e da quel momento in poi i due collaborarono per portare a buon fine i progetti di rivelazione dei neutrini. A quell’epoca, Fowler considerava la rivelazione dei neutrini solari come la “ciliegina sulla torta” della teoria dell’evoluzione stellare. Bahcall: un estraneo diventa un “teorico di casa” La fine della stretta collaborazione del Cal Tech con Davis fu determinata dalla comparsa sulla scena di un giovane studente di post dottorato di Fowler, John Bahcall. Se i neutrini solari erano per Fowler la ciliegina sulla torta, si rivelarono per Bahcall il suo mezzo di sostentamento. I neutrini solari divennero un tema dominante della successiva carriera di Bahcall. Quando Davis fu pronto per eseguire le misure, era in gioco la carriera di Bahcall tanto quanto quella di Davis. La necessità da parte degli scienziati di operare, agli inizi delle loro carriere, in stretta collaborazione gli uni con gli altri, è ben illustrata dal coinvolgimento di Bahcall. Bahcall era un fisico teorico e, sulla base delle sue qualità a livello teorico, il suo compito consisteva nel coordinare le energie degli scienziati del Cal Tech. La previsione del numero di neutrini che Davis avrebbe dovuto misurare era un compito compelsso che richiedeva un’ampia conoscenza in diversi settori della scienza. Quando Bahcall non disponeva delle conoscenze necessarie si rivelava molto abile (grazie al sostegno di Fowler) nel reclutare altri per aiutarlo. La previsione dettagliata della quantità di neutrini attesa comprendeva argomenti di fisica nucleare, di astrofisica, di fisica dei neutrini e di radio chimica. La fisica nucleare era necessaria sia per misurare la velocità delle reazioni nucleari che hanno luogo sul sole sia per calcolare l’interazione fra neutrini e cloro nel rivelatore. Dal momento che le velocità delle reazioni nucleari sono misurate in laboratorio ad energie molto più alte di quelle che si trovano all’interno del sole, occorre fare delle estrapolazioni verso energie inferiori. Queste energie e le successive sono spesso dubbie. Bahcall si procurò ben presto la collaborazione dei principali fisici nucleari per misurare di nuovo molti dei parametri nucleari più importanti. Un’altra disciplina fondamentale che interviene nel calcolo del flusso dei neutrini è l’astrofisica. Tale disciplina è necessaria per produrre un modello dettagliato della struttura ed evoluzione del 60 sole. L’evoluzione solare è simulata da un calcolatore lungo un periodo di tempo equivalente a 4,5 miliardi di anni di vita del sole. Al modello in questione devono essere forniti molti dati relativi al sole, come ad esempio la composizione dei suoi elementi costitutivi tali input subivano continue rettifiche. Il modello solare fu costruito da specialisti al Cal Tech. La quantità può consistere nel flusso di neutrini che Davis si aspettava di rivelare proveniva da una diramazione del primo gradino della catena di fusione dell’idrogeno delle reazioni nucleari nel sole. Questi neutrini ad alta energia si rivelarono estremamente sensibili alla temperatura e dipendenti in maniera critica dai dettagli del modello solare. Era richiesta abilità e padronanza nella fisica dei neutrini anche per determinare ciò che accadeva a tali particelle durante l’attraversamento del sole e nel loro lungo viaggio verso la terra. Bahcall aiutò Davis anche nei problemi teorici che sorsero relativamente alla progettazione dell’esperimento, per esempio, in merito al probabile ammontare del fondo di raggi cosmici, suggerendogli anche quando sarebbe stato più conveniente prelevare dei campioni dal serbatoio e così via. Egli divenne il “teorico di casa”. Finanziare l’esperimento Davis valutava il costo dell’esperimento in circa $600.000. Negli anni ’60 si trattava di una grossa somma. Fowler era estremamente influente nell’ottenere assegnazioni di fondi. Egli elogiava continuamente Davis e Bahcall, stimolando consensi da parte dei suoi colleghi. Sarebbe ingenuo pensare che gli scienziati ottengano i finanziamenti solamente scrivendo una convincente richiesta di concessione. Per ottenere fondi e agevolazioni gli scienziati devono ricorrere a pressioni politiche e ad altre forme di persuasione. Nel reperire il denaro per l’esperimento di Davis alcune circostanze furono fondamentali: la pubblicazione da parte di Davis e Bahcall dei loro risultati e dei loro progetti nella più autorevole rivista di fisica, “Physical Review Letters”; l’utilizzo della serie di Preprint “Orange and Lemon Aid” del Kellog Radiation Laboratory, allora estremamente influente, allo scopo di far circolare nella comunità scientifica informazioni riguardo a ciò che stava accadendo; l’aver guadagnato le copertine delal stampa scientifica e divulgativa. Estremamente importante fu una lettera che Fowler scrisse all’Atomic Energy Commission, indirizzandola personalmente al presidente del dipartimento di Davis, Richard Dodson perché l’esperimento fosse finanziato. Dodson e Fowler erano vecchi amici e in precedenza erano stati colleghi al Cal Tech. La “squisita lettera” di Foeler fornì il necessario consenso tecnico per assicurare l’assegnazione dei finanziamenti. Naturalmente, tutti questi sforzi per ottenere finanziamenti innescarono i meriti scientifici dell’esperimento, che fu ampiamente divulgato come una verifica diretta e “cruciale” della teoria dell’evoluzione stellare. Vale la pena notare due aspetti della retorica utilizzata a quel tempo riguardo all’esperimento in questione. In primo luogo, nonostante tale metodo fosse indubbiamente più diretto di altri utilizzati per misurare la radiazione proveniente dal centro del sole, i neutrini che Davis si aspettava di rivelare provenivano da una diramazione della catena delle reazioni dell’idrogeno altamente sensibile alla temperatura. Una verifica più diretta avrebbe dovuto riguardare la fondamentale reazione di fusione dell’idrogeno stesso. La seconda generazione di esperimenti che comincia oggi a produrre i primi risultati, mira a rivelare i neutrini che derivano da questa reazione. Eppure, nel tentativo di ottenere i finanziamenti, anche questi nuovi esperimenti sono stati annunciati come “cruciali”. La retorica della “crucialità” è ovviamente 61 dipendente dal contesto. La difficoltà di trovare finanziamenti per grosse somme di denaro contribuisce a rendere gli esperimenti cruciali. Il secondo fatto da rilevare è che molti scienziati la cui collaborazione era necessaria per lo svolgimento dell’esperimento erano fisici nucleari e delle particelle. Tali fisici, abituati ad una “rigida e inflessibile” scienza di laboratorio, erano scettici riguardo all’astrofisica, che consideravano molto meno precisa. Molti fisici erano cauti sulla possibilità di finanziare un esperimento basato sull’astrofisica. Per convincere gli scettici era interesse di Bahcall disporre di una esatta previsione di un intenso segnale che Davis potesse rivelare senza ambiguità. Ci sono prove del fatto che le previsioni teoriche del flusso dei neutrini solari cambiavano in base alla necessità di finanziamenti da parte dei fisici. Nel momento in cui l’esperimento fu finanziato, nel 1964, il flusso previsto era intenso, subito dopo l’intensità del flusso iniziò a diminuire; quando Davis ottenne i suoi primi risultati nel 1967, era diminuito fino a raggiungere un valore molto inferiore a quello iniziale. Numerosi scienziati commentarono che l’esperimento non sarebbe mai stato finanziato se i bassi livelli di intensità previsti nel 1967 fossero stati previsti precedentemente, nel 1964, quando fu assegnato il finanziamento dell’esperimento. Molte differenze fra le successive previsioni del flusso di neutrini dipendevano da parametri che sfuggivano all’immediato controllo di Bahcall. Tuttavia, la tempestività delle pressioni per ricevere i finanziamenti, e la scoperta che una delle più importanti velocità della reazione nucleare era stata impropriamente estrapolata verso le basse energie, contribuivano a ritenere troppo ottimistica la previsione del 1964. L’interdipendenza di teoria ed esperimento potrebbe difficilmente essere più evidente. Preparare l’esperimento Davis doveva trovare una miniera con una galleria sufficientemente profonda in cui collocare le sue attrezzature. Ciò risultò tutt’altro che facile, non solo per i vincoli di natura fisica come la profondità e la stabilità della roccia, ma anche perché la maggior parte dei proprietari delle miniere non vedeva alcun vantaggio nell’ospitare uno scomodo e forse pericoloso esperimento nelle loro miniere. Davis passò molto tempo nel 1964 a negoziare con i proprietari delle miniere. Alla fine, la Homestake Minning Company accettò di partecipare al progetto una volta saputo che era finanziato dall’Atomic Energy Commission (che consumava l’uranio lì prodotto). La costruzione dell’esperimento coinvolgeva Davis in estese razionai con la compagnia mineraria ed altre compagnie commerciali, che collaboravano alla costruzione dell’equipaggiamento necessario e alla consegna del solvente alla miniera. È un impoverimento immaginarsi una scienza che considera i teorici semplicemente come produttori di nuove idee, e gli sperimentatori come le persone che verificano o sottopongono a prove queste nuove idee. Occuparsi di teoria e di esperimento è molto più interessante di così. Teoria ed esperimento sono indissolubilmente legate, e sono parte di una più ampia rete di legami fra scienziati. Se non fosse stato per la collaborazione di fisici teorici e fisici sperimentali, ed in particolar modo per l’influenza degli scienziati del Cal Tech sotto la guida di William Fowler, l’esperimento sui neutrini solari non avrebbe mai avuto luogo. 62 risultati siano stati accolti così seriamente. Avendo puntato così tanto su di lui e sul suo esperimento i teorici non potevano certamente abbandonarlo. Fra le nuove verifiche che Davis concordò di eseguire ci fu l’introduzione di 500 atomi di argo direttamente nella sua cisterna. Davis continuò a registrare la presenza di argo con la prevista efficienza. Convinse anche alcuni chimici del Brookhaven a cercare una anomala forma di argo che potesse rimanere intrappolata nel serbatoio. Non ne fu trovata nessuna. Tuttavia, nessun esperimento è mai definitivo, e possono sempre essere trovate delle scappatoie da parte di uno scienziato critico e dotato di determinazione. Nel 1976 tale scienziato si identificò nella figura di un astrofisico scettico, Kenneth Jacobs. L’argo imprigionato Jacobs era preoccupato del fatto che l’esperimento di Davis non fosse mai stato ripetuto e affermava che era più probabile che l’argo venisse imprigionato da qualche parte, fornendo così una spiegazione per quel basso livello di intensità registrato. Egli propose un probabile meccanismo che potesse giustificare il presunto “imprigionamento” dell’argo sotto forma di una debole “polimerizzazione”, analoga a quella che subivano gli idrocarburi liquidi simili al solvente utilizzato da Davis. I dubbi di Jacobs erano legittimi in riferimento alla logica che era alla base degli esperimenti di taratura intrapresi da Davis. Gli esperimenti di taratura, per la loro specifica natura, presentano sempre delle differenze rispetto a ciò che accade nel corso di un vero esperimento. Le differenze esistenti fra gli esperimenti offrono sempre motivi per avanzare dei dubbi. Il fatto che tali dubbi vengano sollevati o no, dipende da quanto uno scienziato e pronto a sfidare il giudizio tradizionale secondo cui tali differenze sono insignificanti. Jacobs era pronto a raccogliere questa sfida. C’era un test molto complesso a cui era generalmente attribuito il ruolo di escludere l’ipotesi dell’imprigionamento. Davis alla fine eseguì questa verifica con successo. Non sappiamo se Jacobs abbia potuto contestare anche questa verifica perché non riuscì a mantenere il suo incarico all’università e abbandonò del tutto la scienza. Sebbene la discussione sia stata arrestata a questo punto, se qualcun altro determinato come Jacobs comparisse sulla scena… Soluzioni al problema La schiacciante reazione ai risultati di Davis è stata la contestazione di una delle più complicate catene di assunzioni riguardanti la fisica nucleare, l’astrofisica o la fisica del neutrino, che sono alla base della previsione teorica del flusso di neutrini. Nel 1978 sono stati pubblicati più di 400 articoli che proponevano soluzioni al problema del neutrino solare. È nell’area dell’astrofisica che è stata discussa la maggior parte delle soluzioni. Abbiamo già avuto occasione di sottolineare la straordinaria sensibilità alla temperatura dei neutrini che Davis cercò di rivelare: molte soluzioni anno proposto modificazioni del modello solare che implicano un abbassamento della temperatura centrale del sole. 65 Una delle soluzioni più accreditate è quella dell’“oscillazione del neutrino”. Negli anni, il risultato di Davis è stato sempre pari a 1/3 della migliore previsione teorica. Dal momento che ci sono 3 tipi di neutrini e l’esperimento di Davis è sensibili ad uno solo di questi, la proposta è che i neutrini siano prodotti in un determinato stato all’interno del sole ma che oscillino fra i loro 3 possibili stati nel lungo viaggio verso la terra, cosicché Davis riesce a rivelare solo una quantità di neutrini pari a 1/3 del segnale previsto. Molte soluzioni proposte non sono state confutate e sono passate inosservate nella letteratura scientifica. Altre hanno ricevuto una notevole considerazione e sono state respinte per svariati motivi. Complessivamente, nessuna delle soluzioni ha ancora ottenuto un consenso universale. D’altra parte, la teoria dell’evoluzione stellare non è stata modificata. Il risultato dell’esperimento sul neutrino solare è stato considerato come una anomalia; per il momento, qualcosa da accantonare. Un esperimento sulla natura della scienza Sebbene nessuna delle spiegazioni proposte abbia ancora raggiunto il consenso in qualità di soluzione al problema del neutrino solare, esse sono interessanti perché rivelano un sottofondo di dubbi e incertezze che riguarda persino i settori della conoscenza in apparenza meno consolidati. Prima del 1967, il progetto di rivelare i neutrini solari sembrava poggiare su una solida struttura di assunzioni teoriche e sperimentali. Indubbiamente, una volta raggiunta una soluzione concorde, tutte le incertezze del momento svaniranno e gli scienziati nutriranno ancora la più grande fiducia in questi settori della scienza. Ciò che ora è divenuto “incompiuto” sarà “compiuto”. Un modo per riflettere su ciò che è accaduto è di considerare il risultato di Ray Davis come un esperimento sulla natura della scienza. È come se il risultato di Davis fosse una lama di incertezza che attraversa idee e procedure ormai date per scontate. Se prendiamo sul serio ogni suggerimento allora quasi tutte le cose che diamo per scontate vengono messe in discussione. Siamo grati a Ray Davis per averci offerto questo esperimento ideale sulla duttilità della cultura scientifica. Naturalmente “la scienza del che cosa se” non è una scienza convenzionale. Il mistero dei neutrini solari ci lascia con questi interrogativi: se gli scienziati possono, in determinate circostanze, pensare l’impensabile, che cosa impedisce loro di farlo come prassi? La scienza funziona a modo suo, non spinta da un obbligo assoluto imposto dalla Natura, ma perché noi facciamo scienza a modo nostro. Appendice 1992 Il giudizio sul caso del neutrino scientifico non è stato ancora formulato. Due successive generazioni di esperimenti hanno riportato nuovi risultati. SAGE è il Soviet-American Gallium Experiment che utilizza un rivelatore contenente tonnellate di puro gallio situato sotto una montagna nel Caucaso del Nord. GALLEX è il nome attribuito ad una collaborazione internazionale che utilizza un’enorme cisterna di cloruro di gallio situata in un laboratorio sotterraneo negli Appennini. Entrambi gli esperimenti dovrebbero rivelare un flusso di neuroni compreso fra 124 e 132 SNU. SAGE ha registrato soltanto una presenza di neutrini pari a 20 SNU mentre GALLEX Ha rivelato 83 SNU. Il risultato di GALLEX può essere fatto rientrare a malapena entro gli standard dei modelli solari conosciuti, ma il risultato di SAGE avrebbe bisogno di una spiegazione più radicale come l’oscillazione del neutrino. Tali risultati contraddittori sono spiegati da alcuni scienziati 66 attribuendoli alle difficoltà di gestire il rivelatore di puro gallio rispetto al rivelatore di cloruro di gallio. Le trattative procedono! Conclusione: mettere all’opera il Golem Guardando avanti e guardando indietro Abbiamo seguito lo svolgimento di numerosi episodi di scienza. Abbiamo descritto non solo il lavoro dei più stimati scienziati, ma anche attività che, almeno così sembra, non saranno acclamate e ricordate. In alcuni casi esaminati – il problema del neutrino solare e il comportamento sessuale delle lucertole dalla coda frustata – la discussione è ancora in corso. La faranno entro i canoni del processo scientifico o questi scienziati saranno “carne da macello”? resta da vedere, ma non aspettiamoci di trovare la risposta solo nelle teorie e negli esperimenti. Non è un caso che abbiamo scelto di occuparci sia di scienza importante che di scienza meno importante. Abbiamo cercato di livellare la catena di montagne scientifiche che si innalza come risultato della potenza della storia celebrativa. Basta guardare indietro alle nostre origini in ambito scientifico ed ecco che appaiono quelle che sembrano vette irraggiungibili – Newton, Pasteur, Einstein – una catena di montagne di verità. Ma se guardiamo acanti il panorama è piatto. Alcune nuove colline si ergono dalla pianura ogni volta che gettiamo un’occhiata indietro. Che cosa sono queste nuove colline? C’erano anche ieri? Per capire come funziona, dobbiamo capire in che modo partecipiamo alla formazione di queste nuove alture. Per farlo, dobbiamo capire la scienza che sbaglia, allo stesso modo in cui comprendiamo la scienza che ha successo. Solo così, troveremo il coraggio di calare le impervie montagne di ieri, e quelle che si stanno appena formando dietro di noi. L’anamnesi sociologica mostra che non c’è una logica nella scoperta scientifica. O che, piuttosto, se una logica c’è, è la logica della vita quotidiana. Errore umano È impossibile separare la scienza dalla società. Perché tali sfere appaiono distinte? Se qualcosa non funziona bene in ambito scientifico, la comunità scientifica reagisce come un nido di formiche quando c’è un intruso in mezzo a loro. Le formiche sciamano a frotte verso l’intruso, rischiando la loro vita per salvare il nido; nel caso della scienza, sono i corpi degli esseri umani ad essere sacrificati: i corpi di coloro che sono responsabili dell’“errore umano” che ha permesso al problema di presentarsi. Scoprire l’origine dell’errore umano è lo scopo delle commissioni d’inchiesta. Al contrario, la nostra conclusione è che l’“errore” umano va dritto verso il cuore della scienza, perché il cuore è fatto dell’attività umana. Quando le cose vanno male, non è perché l’errore umano si sarebbe potuto evitare ma perché le cose potranno sempre andare male in qualunque impresa umana. Solo i leggendari automi potrebbero trasmettere quella certezza che gli scienziati ci hanno indotto ad aspettarci da loro. Disponiamo di soli due modi di considerare la scienza: o tutta buona o tutta cattiva. Un equilibrio instabile – il pensiero altalenante – è inevitabile conseguenza di un modello di scienza e tecnologia che si suppone possa trasmettere certezze assolute. Il problema è che entrambi gli stati di questo flip flop sono pericolosi. Le esagerate pretese di autorità di scienziati e tecnologi sono offensive e immotivate, ma la reazione probabile a promesse non mantenute potrebbe indurre un moto 67 ad un errore umano. Ma sono le istituzioni che utilizzano tali prove giudiziarie a doversi accollare la colpa. Il problema è che non è stato considerato necessario disporre di due versioni della prova: una versione per la difesa e una versione per l’accusa. Tipicamente, in una corte britannica, soltanto il pubblico ministero incarica i periti e fornisce le conclusioni scientifiche. Essi presentano i loro risultati in maniera apparentemente neutrale alla corte, senza una precedente analisi da parte della difesa. La perizia scientifica dovrebbe essere neutrale, quindi un ulteriore punto di vista alternativo sarebbe ridondante – le conclusioni devono essere le stesse! Ma la scienza è contestabile. Il prezzo da pagare per avere messo in discussione le prove giudiziarie sarà che la scienza non indurrà più una rapida conclusione nelle dispute legali. Gli esperti scientifici dovrebbero essere una delle parti in causa nel processo legale contestato. Inoltre, se la prova scientifica è soggetta alle stesse contestazioni riservate ad altri tipi di prove giudiziarie, non può più provocare l’eventuale imbarazzo di una certezza malriposta. È abbastanza interessante notare che nel sistema legale americano le cose sembrano essere andate troppo oltre nella direzione opposta. Nelle mani di un abile avvocato qualunque prova giudiziaria può essere smontata. Non dovremmo essere sorpresi dal fatto che ogni prova possa essere esaminata e messa in discussione. I dubbi sulla natura e sull’attendibilità delle prove possono sempre essere sollevati. Ma da questo non segue che una prova giudiziari non debba avere alcun peso. Ma solo perché gli scienziati sono in disaccordo, e perché gli esperimenti e l’osservazione da soli non riescono a risolvere controversie, ciò non significa che tali scienziati non raggiungano un punto d’incontro. Riguardo al sistema legale americano, occorre riflettere su come raggiungere un equilibrio giudiziario ora che gli scienziati hanno perso così tanta credibilità. Si dovranno trovare dei meccanismi di valutazione per cui l’influenza delle opinioni dei non-esperti non sia così grande come quella degli esperti. Naturalmente, ciò non sarà facile, specialmente quando la perizia viene “noleggiata” da gruppi particolarmente interessati. Ma risolvere questi problemi è compito della politica e delle istituzioni. Le agenzie governative americane manterranno credibilità solo se si renderanno conto che la scienza funziona quando produce accordo fra gli esperti. Permettere a ciascuno di dire la propria opinione è negativo come permetterlo solo ad un singolo gruppo. Il problema della scienza giudiziaria può essere visto come un microcosmo all’interno del dibattito. Esigere troppa fiducia nella scienza equivale a garantire che la perizia scientifica possa essere tenuta in considerazione o respinta, utilizzata o ignorata, non in maniera instabile ma proprio come si fa con ogni altra istituzione sociale. Inchieste pubbliche Se applichiamo questa nuova analisi ovunque la scienza entra in contatto con un’altra istituzione sociale, allora emergerà una comprensione più efficace. Che cosa accade quando ci sono pubbliche inchieste sulla costruzione di una nuova centrale nucleare? Ognuno deve fare la propria scelta. Istituti autorevoli da una parte, e agenzie Federali dall’altra, possono setacciare e vagliare le prove degli esperti, ma alla fine il cittadino non può far altro che ascoltare le due parti e decidere senza avere la certezza di non sbagliare. 70 Esperimenti o dimostrazioni nella scena pubblica Quando la Federal Aviation Authority fece schiantare al suolo un aereo pieno di un particolare kerosene per verificare se poteva essere un combustibile più sicuro per l’aviazione non si trattava di scienza. Gli esperimenti nella scienza reale difficilmente producono una conclusione netta – ed è proprio ciò che abbiamo dimostrato. Ciò che compiono queste agenzie è una “dimostrazione” approvata per risolvere un contrato politico. Perlomeno, siate diffidenti se l’interpretazione di un test di questo tipo è considerata ovvia e inevitabile. Aspettate di ascoltare le interpretazioni provenienti da diversi gruppi coinvolti, e assicuratevi che questi gruppi gradiscano il reciproco controllo sulle modalità di preparazione del test, e sul significato da assegnare al risultato. Se non accettano questo modo di procedere, ascoltate la natura delle loro rimostranze. Scienza in televisione Quando la scienza è oggetto di una trasmissione televisiva, occorre stare attenti al modello di scienza che emerge. Un programma televisivo che si è avvicinato a tipo di descrizione fornita in questo libro raccontava i tentativi e le fatiche del gruppo del CERN che ha scoperto la particella fondamentale “Z”. Tuttavia, il programma era intitolato “L’evento di Ginevra”, il messaggio finale trasmesso non riguardava gli elementi negativi o quelli controversi. Alla fine, dominava il trionfalismo. Troppo pochi programmi televisivi offrono una rappresentazione della scienza così come è stata descritta qui. Commissioni d’inchiesta Quando dopo gli incidenti hanno luogo pubbliche inchieste se viene scoperto che la causa era soltanto un errore umano, diffidate. Scoprire un errore umano vuol dire attribuire la colpa a qualcosa che è esterno alla scienza. Scienza e tecnologia sono intrinsecamente rischiose. Quando la responsabilità di un problema è attribuita a persone singole, ciò dovrebbe essere fatto con lo stesso spirito con cui viene attribuita una responsabilità politica, responsabilità e colpa non sono del tutto la stessa cosa. Insegnare la scienza Parliamo infine dell’insegnamento della scienza nelle scuole. È bello conoscere il contenuto della scienza, ci aiuta a fare tante cose. Tuttavia, ogni classe in cui gli alunni conducono lo stesso esperimento all’unisono è un microcosmo della scienza di frontiera: nessuno otterrà un risultato identico a quello del compagno ma si cercherà insieme all’insegnante di spiegare e trovare un punto di incontro rispetto ai differenti risultati sperimentali. Alla fine, è la comunità scientifica che porta ordine nel caos, trasformando le goffe capriole della scienza Golem collettiva in un pulito e ordinato mito scientifico. Non c’è nulla di sbagliato in questo: l’unico peccato è non riconoscere che è sempre così. 71
Docsity logo


Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved