Sono ormai diversi anni che le
novità scientifiche vengono diffuse dai mezzi di comunicazione prima
che dai canali tradizionali della comunità scientifica: riviste,
congressi, più di recente Internet... Questo non può che far
piacere a chi sia desideroso di tenersi aggiornato; ma presenta anche diversi
inconvenienti.
Il primo è la sovrasemplificazione
inevitabile (e come ho già detto, secondo me non sempre in buona fede).
Non è possibile dare la notizia in forma adatta a un grande pubblico,
spiegandone correttamente il significato, il quadro delle conoscenze in cui
s'inserisce, in che cosa modifica o conferma le conoscenze precedenti, ecc.
È inoltre quasi impossibile descrivere
tutte le cautele critiche e possibili interpretazioni che sono necessarie nel
valutare un risultato scientifico, tanto più se "fresco", ossia non
ancora assoggettato al vaglio degli esperti.
C'è poi la tendenza giornalistica, ma
temo anche dei protagonisti della ricerca, a rendere l'evento più
sensazionale, sia attenuando o sopprimendo del tutto le cautele che dicevo,
sia esagerando l'importanza e/o l'attendibilità dei risultati
raggiunti.
Il caso dell'esperimento
"Boomerang" ha mostrato tutte queste caratteristiche. Si sono
presentate delle immagini senza darne alcuna spiegazione, ma descrivendole
come "fotografie del big bang"; si è asserito che le misure
davano la prova che l'Universo è piatto, senza naturalmente chiarire
che cosa ciò significhi, né tanto meno fare il minimo cenno alle
incertezze sperimentali... E si potrebbe continuare...
È ovvio che se si vanno a leggere gli
articoli originali, o si ascoltano i risultati dalla viva voce degli autori, i
discorsi che si sentono sono alquanto diversi, e si capisce: quando un
ricercatore parla a colleghi deve stare ben attento a non uscire dai canoni
della comunicazione scientifica. Ma se le notizie apparse nei mass media erano
così diverse, sarà proprio tutta colpa dei giornalisti? Io non
credo. Dopo tutto, quei giornalisti non hanno inventato: avranno estratto le
frasi che ritenevano più d'effetto, ma la loro fonte erano le
conferenze-stampa e i comunicati dei ricercatori...
Sia chiaro: quello che ho citato è solo
l'ultimo esempio, ma non è affatto l'unico. Sempre restando nella
cosmologia, poco più di un anno fa (mi pare) si era molto parlato
dell'Universo che "accelera l'espansione"; e anche a quel proposito
potrei ripetere le stesse cose. Sono sicuro che in futuro ne sentiremo altre,
e certamente non solo nella cosmologia.
Ora il mio compito è cercare di
rimettere un po' le cose a posto, ossia dare un'idea più vicina
alla realtà scientifica di che cosa è stato realmente visto, e
di che cosa significa. Voglio anche mettere in chiaro perché si discute
e si ricerca su queste cose, e quali sono le difficoltà della ricerca.
Scusate se è poco...
Nella puntata precedente spiegavo che di
alcuni parametri cosmologici è possibile una misura piuttosto diretta:
ho fatto l'esempio della costante di Hubble e quello della densità (di
materia/energia). Non voglio disquisire sulla distinzione fra misura diretta e
indiretta, che è tutt'altro che semplice da tracciare; però
sottolineo che esiste comunque una graduatoria: quella di H
è probabilmente la misura più diretta
che si possa fare in ambito cosmologico. Ora dovremo occuparci di misure assai
più indirette, che sono d'altra parte necessarie, perché
altrimenti non si riesce ad avere dati sufficienti a un confronto con le
teorie.
Il problema con le misure indirette è
che spesso sono anche più incerte, nel senso che i dati di osservazione
possono essere affetti da diverse cause di errore. Ma c'è di
più: per sua natura una misura indiretta è fortemente
condizionata da ipotesi e modelli teorici, da approssimazioni di calcolo...
Quindi la sua interpretazione dipende molto dai modelli e dalle
approssimazioni che si usano, e la sua valutazione dipende dalla fiducia che
ciascun ricercatore ripone in tali modelli e approssimazioni. Non c'è
da lamentarsi, né da svalutare queste ricerche; si può invece
dire "così va la vita". L'importante è solo non
prendere lucciole per lanterne, e non vendere come nuova una macchina usata...
A questo serve la critica nell'ambito della comunità scientifica:
nessuno è solo, ciascuno è sempre soggetto al controllo di
altri, che spesso la vedono diversamente. Dalla discussione e dal confronto si
può riuscire a capire come stanno realmente le cose, a decidere dove e
come condurre ulteriori ricerche, ecc.
Forse tutto questo discorso è un
po' troppo vago, per cui è meglio illustrarlo con un esempio, che
prendo dalla storia della prima misura cosmologica: appunto quella della
costante di Hubble.
Ho già detto che per la misura di
H
occorre misurare il redshift di una
sorgente e la sua distanza. Naturalmente meglio se la misura si fa su molte
sorgenti, e tanto meglio se sono lontane, perché il redshift
sarà più grande e quindi meglio misurabile.
In effetti la misura del redshift non è
mai stata un problema, perché le righe spettrali si possono
identificare anche in sorgenti (galassie) parecchio lontane: il vero problema
è sempre stato la misura della distanza. Tanto è vero che le
prime misure, quelle degli anni '30-'40, erano sbagliate e non di poco: ne
risultava per H
un valore 10 volte
maggiore di quello che oggi si ritiene più corretto.
Come mai? La storia di questo errore è
tipica di quello che può succedere (anche se l'esperienza insegna, e
con gli anni siamo diventati più smaliziati...).
Il metodo allora in uso per misurare la
distanza di galassie non troppo lontane, era quello di cercare nella galassia
un certo tipo di stelle variabili, dette "cefeidi". La virtù
delle cefeidi è di essere variabili "regolari", ossia di
aumentare e diminuire luminosità con un ciclo periodico assai preciso
(si parla di alcuni giorni). Ma non solo: si era scoperto, già molti
anni prima, che il periodo di variabilità di una cefeide era
strettamente correlato alla sua luminosità intrinseca. Le cefeidi
più luminose erano quelle con periodo più lungo, e la relazione
era stata ben studiata, non sto a dire come.
Perciò una volta scoperta, in una certa
galassia, qualche cefeide, la misura del periodo era facile; ne seguiva la
conoscenza della luminosità intrinseca. Si poteva d'altra parte
misurare la luminosità apparente (termine improprio: gli astronomi
parlano di "magnitudine apparente", ma possiamo contentarci) e in
questo modo risalire alla distanza, perché a parità di
luminosità intrinseca la stella appare tanto più debole quanto
più è lontana.
Dunque: galassia, cefeidi, periodo. Dal
periodo si arriva alla luninosità assoluta, quindi alla distanza della
galassia. Misurato a parte il redshift, e ripetuta l'operazione per varie
galassie, si aveva la relazione distanza-redshift, ossia la legge di Hubble
con la sua costante. Semplice, no?
Allora, dov'era l'errore? Stava nel fatto
che non si sapeva allora che accanto alle "cefeidi classiche"
esisteva un'altra classe di variabili regolari, che vennero poi chiamate
"cefeidi di tipo II". Pur avendo anch'esse una relazione fra periodo
e luminosità simile a quella delle cefeidi di tipo I, sono molto meno
luminose a parità di periodo. Risultato: se si scambia una cefeide di
tipo II per una di tipo I, la si crede più luminosa di quello che
è; dato che la si vede debole, si attribuisce questo a una maggior
distanza. E così la costante di Hubble riusciva sbagliata per eccesso,
per un fattore 5 o più.
Questa puntata è in corso di
elaborazione...
| Torna all'indice generale |