www.scribd.com/Baruhk
www.scribd.com/Baruhk
LUDOVICO
GEYMONAT
Storia del pensiero filosofico e scientifico VOLUME
DECIMO
Il Novecento (4) A cura di Enrico Bellone e Corrado Mangione Con specifici contributi di Carlo Becchi, Enrico Bellone, Francesco Bertola, Giovanni Boniolo, Umberto Bottazzini, Salvatore Califano, Mauro Ceruti, Gilberto Corbellini, Roberto Cordeschi, Alessandra Gliozzi, Felice lppolito, Gabriele Lolli, Alberto Oliverio, Bianca Osculati
GARZANTI
www.scribd.com/Baruhk
r edizione: giugno 1996
ISBN 88-11-25060-9 © Garzanti Editore S.p.A., 1996 Printed in Italy
www.scribd.com/Baruhk
Presentazione
www.scribd.com/Baruhk
Ludovico Geymonat (r9o8-I99r)
www.scribd.com/Baruhk
Presentazione DI ENRICO BELLONE E
I IL
· LA SUO
STORIA
PESO
DEL
NELLA
PENSIERO
CULTURA
CORRADO MANGIONE
FILOSOFICO
ITALIANA
E
DEGLI
SCIENTIFICO: ANNI
SETTANTA
Sono trascorsi vent'anni da quando fu data alle stampe l'ultim~ eàizione della Storia del pensiero filosofico e scientz/ico. Anche i critici più severi ammisero che i volumi della Storia, visti come sintesi delle ricerche precedentemente svolte da Geymonat nell'arco di molti anni, avevano avuto un peso forte nella cultura italiana. Di quel peso, che s'era fatto sentire su almeno tre versanti, è oggi necessario ridefinire la natura, nel momento in cui presentiamo una nuova edizione della Storia, con due volumi di aggiornamento dell'opera. Il primo versante della cultura italiana sul quale la Storia esercitò negli anni settanta il proprio influsso riguardava la necessità, acutamente avvertita da Geymonat, di intervenire su una tradizione nazionale che assegnava un ruolo marginale alla logica matematica e alle ricerche storiche e filosofiche sull'impresa scientifica. Quella tradizione è ancora oggi viva e continua a esercitare le proprie funzioni, pur essendosi indebolita di fronte all'irrompere, sulla scena internazionale e italiana, di nuovi interessi verso una teoria della conoscenza più aderente alle dinamiche storiche della ricerca scientifica e ai criteri suggeriti dall'argomentazione logico matematica. Tuttavia, negli anni settanta, essa esercitava un ruolo egemone che non era stato intaccato dai tentativi di critica messi generosamente in campo da quegli studiosi che, come il matematico Federigo Enriques o il fisico Enrico Persico, avevano risollevato la questione del come siano superficiali le riflessioni sulla scienza portate innanzi sulla base di una più o meno dichiarata indifferenza verso la struttura formale e la dinamica storica delle singole teorie scientifiche. La tradizione in quegli anni vincente, infatti, basava il proprio successo proprio nel dichiarare inesistente tale questione e nel raccogliere, attorno alla dichiarazione stessa, un vasto consenso. Il consenso, d'altra parte, traeva forza dal persistere, nel senso comune e in ampi strati di intellettuali, di uno stato d'animo pregiudizialmente ostile alla diffusione della tecnologia, della quale venivano costantemente sottolineati gli aspetti negativi. Il dominio indiscriminato delle tecniche sulla natura, l'utilizzo di macchinismi finalizzati allo sfruttamento dell'uomo sull'uomo o VII
www.scribd.com/Baruhk
Presentazione
l'uso devastante delle nuove armi apparivano come forme di abbrutimento della specie umana, così che l'indagine scientifica, erroneamente identificata come causa di tali fenomeni, diventava un potenziale nemico da controllare e su cui esercitare una costante vigilanza sotto la guida di un mondo di valori che, come si pensava, godeva di una totale autonomia rispetto alla scienza e alla tecnologia. La Storia era stata progettata per contrastare queste critiche radicali della conoscenza scientifica e del razionalismo che della scienza costituiva, secondo Geymonat, la nervatura fondamentale. Come più volte egli aveva sottolineato, gli intellettuali italiani avrebbero dovuto modernizzare i propri punti di vista impegnandosi con serietà nello studio dell'empirismo logico e delle sue conseguenze: non per trasformarsi in seguaci del neopositivismo, ma per meglio capire la portata culturale della scienza. Il progetto della Storia era dunque finalizzato a rovesciare, attraverso una ricostruzione globale dei rapporti tra filosofia e scienza, l'opinione che assegnava il compito di esplorare la conoscenza solamente a quegli studiosi che, valendosi di saperi formatisi in aree umanistiche assai lontane dai metodi argomentativi della logica matematica o della più avveduta indagine epistemologica, ritenevano che la matematica o la chimica, la fisica o la biologia non avessero propriamente una storia, ma fossero invece caratterizzabili secondo cronologie di per se stesse poco interessanti e, comunque, vuote di pensiero. Il secondo versante era poggiato sulla credenza, collegata alla tradizione di studi appena citata, che l'impresa scientifica, essendo vuota di pensiero, non fosse cultura. La scienza, in quell'ottica, sembrava infatti riducibile a una congerie di tecniche, solamente giudicabile in quanto utile o dannosa. I giudici, allora, facevano naturalmente parte di quei ceti intellettuali che, in sede filosofica e politica, erano chiamati a valutare, in chiave puramente strumentale, i vizi o le virtù che potevano caratterizzare questo o quel settore delle scienze. Questi punti di vista erano quindi maggioritari nel nostro paese e avevano radici nell'opinione secondo cui solo una filosofia intesa come scientia scientiarum fosse capace di fornire un senso e trovare giustificazioni per le ricerche scientifiche. S'era dunque in presenza d'un modo di vedere i problemi dell'intelletto come separati dai problemi delle scienze e della tecnologia: il che portava a conseguenze immediate nell'organizzazione stessa delle istituzioni universitarie e, più in generale, nella strutturazione complessiva della scuola. Uno degli aspetti più evidenti della situazione in cui la Storia di Geymonat prese corpo era infatti costituito dalla scarsissima presenza, nelle università, di ricerche e di insegnamenti nei settori della logica, della filosofia della scienza, della storia della scienza e della storia di singole discipline quali la fisica, la matematica, la chimica, la biologia e l'astronomia. Proprio su questo aspetto organizzativo della ricerca e della didattica va collocato il terzo versante sul quale si esercitò il peso dell'opera di Geymonat. È giusto ricordare, oggi, che la Storia fu decisiva per quella sia pur parziale riorganizzazione degli studi che portò alla creazione di insegnamenti e di linee di ricerca in logica VIII
www.scribd.com/Baruhk
Presentazione
matematica, filosofia della scienza, storia della scienza e del pensiero scientifico, e storie delle singole scienze. La maggior parte degli studiosi italiani che negli anni sessanta e settanta cominciò a occuparsi di tali tematiche trovò infatti, in Ludovico Geymonat, un importante punto di riferimento. II
·
LOGICA
E
STORIA
Il progetto della Storia faceva dunque riferimento alla necessità di criticare una tradizione che assegnava ai soli intellettuali di area umanistica il compito di esplorare l'impresa scientifica e il suo impatto sulla natura, sulla società e sulla prassi politica. Occorreva mettere in luce come la scienza non fosse un agglomerato di mere tecniche ma avesse un intrinseco spessore teoretico, così da costituirsi come una delle più ricche forme della conoscenza. Al fine di realizzare questo progetto filosofico era allora indispensabile, secondo Geymonat, esaminare con cura l'insieme dei rapporti tra scienza e filosofia. Al fine di recuperare l'effettiva rilevanza culturale dell'impresa scientifica e di mostrare l'irriducibilità di quest'ultima a tecnica, era possibile, nel progetto ideale della Storia, individuare due fondamenti principali. ll primo era formato dalla logica matematica. Essa, già nell'Ottocento, si era sviluppata come scienza, istituendo metodi argomentativi che erano tanto più rigorosi quanto più si affidavano a procedure algoritmiche. Nello stesso tempo, però, la logica matematica si era anche collocata su un terreno applicativo che non poteva che apparire prezioso agli occhi di Geymonat. I logici, infatti, avevano arricchito le nostre conoscenze sulla struttura delle teorie scientifiche. Nella discussione epistemologica sulla scienza, quindi, era per Geymonat impossibile assegnare un ruolo trascurabile all'assiomatizzazione, all'analisi formale delle teorie scientifiche e allo studio delle strategie inferenziali messe concretamente in campo da fisici e chimici, biologi, matematici o astronomi. Il secondo fondamento era di più difficile determinazione, come del resto appare dall'insieme degli scritti di Ludovico Geymonat. Geymonat aveva avuto, sin dagli anni giovanili, una spiccata attenzione verso l'empirismo logico e, quindi, verso il ruolo che l'analisi della struttura delle teorie poteva svolgere in epistemologia. Nel delineare un proprio programma di ricerca in filosofia della scienza Geymonat aveva infatti preso le mosse da alcune tematiche che avevano caratterizzato i Circoli di Vienna e di Berlino. Gli sviluppi del programma lo avevano tuttavia condotto al convincimento che il problema della conoscenza scientifica non fosse interamente riconducibile alla sola analisi logica degli assetti teorici. Questi ultimi, infatti, avevano una dimensione storica che sfuggiva all'analisi formale ma che non poteva essere eliminata senza privare la filosofia della scienza di una componente basilare. Stava così nascendo un ambizioso tentativo di conciliare tra loro il punto di vista logico matematico sulle teorie e il punto di vista secondo cui ogni teoria è storicamente determinata. IX
www.scribd.com/Baruhk
Presentazione
La difficoltà centrale, per il programma della Storia, era dunque questa: mentre la logica matematica consente senza dubbio di avviare l'esplorazione di un apparato teorico già presente in forma più o meno completa, non è tuttavia chiaro il processo storico attraverso il quale l'apparato in esame si è gradualmente formato nel tempo. Non era sufficiente, secondo Geymonat, risolvere il secondo aspetto della questione - e cioè quello propriamente storico - ricorrendo a descrizioni della dinamica di una teoria che fossero, più o meno esplicitamente, narrazioni di tipo letterario o riduzioni della prassi scientifica a moduli interpretativi di natura sociopsicologica. Una tale insufficienza gli appariva come una circostanza indubbia. Egli stesso, effettuando ricerche in storia della matematica o affrontando i problemi relativi all'opera di Galileo Galilei, aveva fornito elementi atti a illuminare alcune ragioni della debolezza di un approccio solo letterario o meramente sociopsicologico alle vicende della scoperta scientifica. La possibilità di chiarire i processi attraverso i quali nascevano le teorie gli sembrava connessa, per un verso, all'agire di regolarità intrinseche ai processi stessi, e, per l'altro verso, alla presenza, sulla scena scientifica, della natura come protagonista essenziale. La natura non era una creazione della prassi umana: era invece la natura oggettiva di cui aveva parlato Galilei e verso la cui conoscenza era rivolta l'impresa scientifica. Al cuore della Storia, quindi, era disposta l'idea di fondere insieme i raffinati metodi argomentativi e analitici della logica matematica, la presenza di una natura colta nella sua oggettiva materialità e una processualità storica del sapere che doveva essere regolata da leggi. Il progetto della Storia e la sua realizzazione non potevano, pertanto, che essere in aperto contrasto sia con l'atteggiamento idealistico, sia con quelle versioni del marxismo occidentale che, a parere di Geymonat, avevano abbandonato il materialismo. La storia delle scienze, considerata nel quadro di tale progetto, veniva ad assumere un ruolo complementare a quello individuabile nella logica matematica. L'analisi storica e l'analisi logica delle teorie avevano infatti il compito di mettere in luce i due aspetti essenziali della scienza, e cioè quello processuale e quello strutturale. La messa in luce doveva porre in evidenza le trame più sottili di quel tema generale che Geymonat riassumeva dichiarando che la filosofia sta nelle pieghe della scienza. E, a questo punto, la sintesi avrebbe allora dovuto realizzarsi nella costruzione di una nuova teoria della conoscenza che fosse in grado di spiegare sia la struttura teorica del sapere, sia il suo divenire nella storia. Non si trattava, come vollero sostenere molti critici, di un semplice e dogmatico ritorno verso le spiagge del materialismo dialettico. Geymonat voleva invece realizzare un rinnovamento della cultura nazionale attraverso una rilettura storica del pensiero filosofico e scientifico, con il fine di costruire una teoria della conoscenza al cui interno confluissero sia le istanze del marxismo, sia quelle dell'empirismo logico. E la sintesi si concretizzava, allora, in una tensione filosofica avente il fine di riconoscere, sul dilagare degli specialismi osservabili nelle singole scienze e nella stessa filosofia della scienza, il bisogno di una nuova concezione del mondo.
www.scribd.com/Baruhk
Presentazione III
· GLI
SPECIALISMI
E
LA
NUOVA
CONCEZIONE
DEL
MONDO
La progressiva specializzazione nei singoli settori della ricerca scientifica e filosofica appariva a Geymonat come un fenomeno in buona parte negativo. Nel 1972, il lettore che affrontava le pagine conclusive che la Storia dedicava al Novecento e all'esigenza di una nuova cultura, trovava un Geymonat che parlava senza mezzi termini di «una chiusura specialistica della scienza», descritta come « uno dei pericoli più gravi della nostra cultura». Era necessario analizzare il fenomeno sia dal punto di vista storico, sia da quello teoretico, così da individuarne le motivazioni di fondo e, di conseguenza, trovare gli strumenti atti a porre in essere il suo superamento. Il giudizio di Geymonat era espresso con chiarezza: la specializzazione della scienza era la matrice principale della crisi della cultura moderna. Lo spirito specialistico aveva cominciato a diffondersi in Francia durante i primi anni dell'Ottocento e, in breve tempo, era dilagato non solo nelle discipline matematiche o fisiche, ma anche in quelle storiche o economiche. Le pagine conclusive della Storia non lasciavano margini di dubbio sulla negatività di tali tendenze e sull'urgenza di parvi rimedio. Da un punto di vista storico, la rincorsa verso la chiusura specialistica era interpretata in funzione dello sviluppo «economico-borghese» di alcune nazioni europee e rappresentava, in questo senso, «un frutto diretto delle trasformazioni sociali allora in via di attuazione». Geymonat era esplicito: la specializzazione «non faceva che riprodurre- entro l'organizzazione delle ricerche- una delle più tipiche situazioni riscontrabili nella nascente industria: la suddivisione del lavoro». Non si poteva negare che lo specialismo portasse a risultati positivi, come era evidente da una analisi delle linee di sviluppo in teoria generale della relatività o in genetica molecolare o in matematica. Ma, obiettava Geymonat, anche il processo generale della produzione favoriva un incremento della produttività delle merci, il quale rappresentava, allora, un fenomeno parallelo a quello della produttività scientifica». La questione centrale non stava nella produttività favorita dalla specializzazione - a proposito della quale non esistevano dubbi - ma si manifestava sotto forma di perdita di interessi verso «il corpus generale della scienza». Era questo il pericolo che investiva sia il singolo ricercatore, sia le masse. Infatti, come osservava Geymonat, la perdita di interessi dei singoli ricercatori verso il «corpus generale della scienza» era «in certo senso analoga a quella che viene a crearsi - per il processo generale della prouzione - nel singolo operaio cui la parcellizzazione del lavoro impedisce di raggiungere una visione globale di tale processo». La specializzazione nella scienza era avvertita, in primo luogo, come « tecnicizzazione linguistica». La tecnicizzazione favoriva un processo di reciproche incomprensioni tra studiosi che, operando in settori tra loro diversi, utilizzavano linguaggi che sempre meno erano tra loro traducibili, così che l'impresa conoscitiva andava a frantumarsi perdendo ogni connotazione unificante: non una scienza, dunque, ma un «mosaico di risultati» privo di interna organicità. XI
www.scribd.com/Baruhk
Presentazione
La valutazione negativa che in tal modo emergeva non era tuttavia limitata alle sole forme della produzione scientifica, ma investiva anche la riflessione filosofica. In modo particolare, l'egemonia dello spirito specialistico aveva svolto e continuava a svolgere un ruolo determinante nel generare una ulteriore divisione del lavoro intellettuale: quella che, per l'appunto, portava a una contrapposizione tra scienziati e filosofi. È interessante notare che, secondo Geyrnonat, questa contrapposizione fosse la causa prima del disinteresse che gli scienziati e i filosofi nutrivano per il problema della concezione del mondo. Il ricercatore che operava in fisica o in biologia non rifletteva sulla questione della concezione del mondo perché essa gli appariva come estranea rispetto ai canoni di una indagine specialistica. Il filosofo, dal canto suo, non era interessato alla questione perché era consapevole di non poterla affrontare «senza tenere conto degli ultimi risultati delle scienze (salvo a parlarne in termini antiquati, che non sono più in grado di dire alcunché alla cultura contemporanea) ». La soluzione che Geymonat suggeriva era incardinata sull'idea che le scienze, viste in un'ottica che respingeva lo specialismo, avessero implicazioni filosofiche di portata generale. Di qui un dovere preciso: è «molto importante che le implicazioni ftlosofiche delle dottrine scientifiche vengano scrupolosamente esplicitate, perché la chiara enunciazione di esse ci offre l'unica via, da un lato, per analizzarne con rigore il significato generale, dall'altro lato, per porre in luce che certe pretese conseguenze filosofiche dei loro principi non derivano in realtà da questi principi ma da una interpretazione gratuita di essi». È opportuno ricordare che il progetto della Storia, pur avendo una impalcatura nettamente filosofica, non intendeva rivolgersi a una minoranza di intellettuali già operanti in ambiti di ricerca scientifici o umanistici. Geymonat avvertiva con particolare acutezza la questione del rapporto tra scienza e prassi, in quanto era convinto che la crescita delle conoscenze scientifiche segnasse in modo decisivo la dinamica delle società contemporanee. Stando così le cose era indispensabile, dal suo punto di vista, che la ricostruzione della storia del pensiero filosofico e scientifico, intesa come comprensione del processo di accrescimento delle nostre conoscenze della realtà, incidesse sullo sviluppo sociale e avesse quindi una specifica coloritura politica. Geymonat aveva più volte polemizzato contro le tesi secondo cui la scienza era caratterizzata da una intrinseca «neutralità teoretica ». Egli aveva al contrario sostenuto che tale neutralità era una finzione di matrice ideologica che poggiava sullo specialismo più esasperato. La finzione svaniva non appena ci si rendeva conto che effettivamente esisteva, al di là delle dinamiche di specializzazione, una storia del pensiero nelle cui trame vivevano insieme la scienza e la filosofia. Se la neutralità teoretica era allora inesistente se non nei sogni di alcuni filosofi, lo stesso accadeva per la neutralità eticopolitica. Quest'ultima, infatti, era soltanto una conseguenza della neutralità teoretica, e con essa svaniva a patto di riconoscere che lo sviluppo della cultura è un processo unitario al cui interno non esistono isole privilegiate. Ogni disciplina XII
www.scribd.com/Baruhk
Presentazione
anche la più astrattamente specialistica - doveva essere pertanto ricollocata nel processo unitario della storia. Diventava allora chiaro che ogni settore del processo non viveva una sua vita propria ma si alimentava di nessi didattici con ogni altro settore. Ne seguiva una conseguenza generale: «Ogni risultato via via raggiunto in questo o quel settore possiede, pur nella sua relatività, un significato e un peso per tutti gli uomini». La connessione stretta tra pensiero filosofico e pensiero scientifico, ribadita con la tesi secondo cui la filosofia vive nelle pieghe della scienza, indicava all'intellettuale nuovo al quale Geymonat voleva rivolgere la Storia, due direttrici di lavoro. Da un lato, la direttrice che portava a combattere contro l'idealismo e l'irrazionalismo sul terreno di una filosofia basata sulla teoria della conoscenza e sul materialismo. Dall'altro, la direttrice immediatamente politica, intesa come assunzione di responsabilità culturale sul piano della concezione del mondo. L'illuminismo, scriveva Geymonat, aveva criticato «il pregiudizio che si debbano tenere due discorsi - uno fideistico per le masse e uno rigorosamente argomentato per gli "uomini di studio"». Era allora indispensabile, nel momento in cui si riconosceva che le battaglie illuministiche non avevano sconfitto quel pregiudizio, capire dove gli illuministi avevano sbagliato. Essi, nelle pagine della Storia, avevano compiuto l'errore di credere che gli intellettuali dovessero elaborare la nuova cultura per poi diffonderla tra le masse: e l'errore stava proprio nell'attribuire alle masse una funzione storica del tutto passiva. Nel xx secolo, invece, le masse avevano «ormai dimostrato di essere le vere protagoniste della storia, e sarebbe ridicolo non considerarle come protagoniste anche dello sviluppo della cultura». Così la Storia si chiudeva con una indicazione di stampo leninista: può nascere una nuova cultura, ed essa sarà «veramente nuova solo se acquisterà piena consapevolezza dei nessi dialettici che la legano con l'intera società, e in particolare con le forze più vive e genuine che oggi ne determinano le rapide, irrefrenabili, radicali trasformazioni». IV · L A E
I
N U O VA VOLUMI
EDIZIO NE DI
DELLA
ST O RIA
AGGIORNAMENTO
La presente edizione della Storia reca in sé, in forme manifeste, i segni delle trasformazioni avvenute, durante l'ultimo quarto di secolo, nella rete dei rapporti tra scienza e filosofia. Una prima trasformazione riguarda la natura stessa del messaggio che Geymonat voleva portare verso quei «protagonisti» della storia ai quali il pensiero illuminista aveva attribuito soltanto un ruolo passivo nella cultura e nella politica. Nell'ultimo quarto di secolo, infatti, le masse, così come Geymonat le rappresentava, sono state agenti prevalentemente passivi nei mutamenti economici e politici che hanno sconvolto i paesi dove era stato tentato l'esperimento del cosiddetto « socialismo reale». In quei paesi, infatti, le fratture del sistema economico e le carenze politiche sul piano dei diritti democratici non sono state attaccate e demoXIII
www.scribd.com/Baruhk
Presentazione
lite da rivoluzioni popolari: le masse, semmai hanno svolto il ruolo del testimone di fronte a un crollo generalizzato e rapidissimo delle strutture, del quale ancor oggi è quanto mai difficile prevedere lo sbocco. Una seconda trasformazione riguarda la valutazione dello spirito specialistico. Proprio a partire dagli anni settanta il processo di specializzazione che Geymonat aveva denunciato con vigore si è sviluppato secondo modalità di crescita che non si limitano a riprodurre quelle progressive settorializzazioni che, nei volumi della Storia, causavano lacerazioni e distorsioni in una cultura che non solo Geymonat desiderava riunificare. È certamente vero che i vari canali di realizzazione delle ricerche scientifiche hanno visto prevalere al proprio interno, nell'Ottocento e nei primi decenni del Novecento, quelle forme di settorializzazione che la Storia giustamente poneva in rilievo e criticava. È altrettanto vero, tuttavia, che il nostro secolo si sta chiudendo con modalità di sviluppo della scienza che non sono interamente leggibili secondo l'ottica di una divisione del lavoro atta ad aumentare la produzione di conoscenze settoriali ma destinata a spezzare la sostanziale unità della cultura. È infatti visibile, nella contemporanea ricerca scientifica e tecnologica, il manifestarsi di una nuova tendenza. Essa, anziché porre in crescente rilievo le differenze tra singoli programmi d'indagine, punta a sottolineare la reale presenza di correlazioni molto forti tra i programmi stessi. Basti pensare ai rapporti che si stanno instaurando tra la logica, la matematica, i calcolatori e i problemi dell'intelligenza e dell'apprendimento, oppure a quelli che sono ormai evidenti tra fisica, chimica, biologia e neuroscienze. Questa tendenza stimola ovviamente il formarsi di specializzazioni sempre più raffinate, nel senso che favorisce una rilevante specificità dei mezzi linguistici grazie ai quali gli scienziati comunicano dati sulle proprie ricerche. E la specificità dei linguaggi è tale che, come spesso si dice, uno studioso che opera in un determinato settore di una data disciplina incontra difficoltà nel capire una relazione scientifica presentata da un collega che effettua indagini in un altro settore della medesima disciplina. Queste circostanze, che riguardano da vicino il problema della comunicazione dei dati, sono poi evidenziate con forza anche dal fatto che i nuovi modi di elaborare e trasmettere le informazioni comportano l'uso di tecnologie sofisticate che inducono, a loro volta, ulteriori processi di settorializzazione. Ciò non vuoi dire, però, che stiano ormai definitivamente scomparendo le tensioni verso quelle forme di sintesi complessiva delle conoscenze che dovrebbero garantire la natura unitaria della cultura umana. Ciò è chiaro se si riflette sul fatto che sta diventando sempre più difficile tracciare una linea di separazione tra discipline generali quali la matematica e la fisica, la fisica e la cosmologia, la chimica e la biologia, la psicologia e le neuroscienze, le neuroscienze e la biologia molecolare. Quest'ultima difficoltà è sintomatica dei mutamenti che si stanno verificando nella rete complessiva delle conoscenze scientifiche e tecnologiche. Sulla base dei XIV
www.scribd.com/Baruhk
Presentazione
dati rilevabili sino alla metà del xx secolo apparivano ancora giustificabili, sia pure con argomentazioni tra loro diverse e spesso contrapposte in senso filosofico, due tesi. La prima si reggeva sull'opinione che la progressiva settorializzazione fosse la prova della mancanza di interna unità dell'impresa scientifica: la scienza appariva riconducibile per intero a un insieme eterogeneo di tecniche ed era intesa come priva di quello spessore teoretico che invece caratterizzava la cultura vera e propria. La seconda tesi, che era poi quella di cui si nutriva il progetto della Storia, implicava invece che esistesse comunque, al di là dei veli ideologici, una sostanziale unità del pensiero: il compito dell'intellettuale era pertanto quello di lacerare i veli ideologici per rimettere in luce quell'unità e per individuarne il processo storico e dialettico di crescita. Così, mentre i sostenitori della prima tesi negavano per esempio che potessero esistere questioni filosofiche rilevanti in seno alla biologia, i sostenitori della seconda si impegnavano nel mostrare la rilevanza filosofica della ricerca biologica. I volumi di aggiornamento alla Storia tengono allora conto dei segni che indicano un nuovo stato di cose. In nessun senso questi volumi sono conformi alla tesi secondo cui la scienza è mera tecnica: sotto questo profilo i due volumi non sono pertanto problematici rispetto al progetto geymonatiano. I problemi invece sorgono sul terreno della ricerca di una complessiva unità della cultura scientifica e filosofica. Come il lettore- potrà agevolmente vedere, i saperi che accomuniamo sotto la voce «filosofia» sono disposti su uno spettro molto ampio nella cui struttura si riflettono le maggiori tensioni che negli ultimi venti o trent'anni hanno caratterizzato la ricerca filosofica nei diversi settori in cui essa si è venuta a organizzare. Il quadro che ne risulta è, per così dire, molto pluralistico. E dovrebbe ormai essere patrimonio comune il punto di vista secondo cui il pluralismo non è sinonimo di dispersione di interessi culturali ma è invece una modalità preziosa del pensiero. Potremmo in un certo senso dire che la ricerca filosofica, così come appare dal volume di aggiornamento che le è dedicato in questa nuova edizione della Storia, è contrassegnata da una robusta vitalità proprio perché non ha generato una filosofia egemone, ma ha invece partorito programmi di ricerca in competizione. Ciò vale, come il lettore potrà verificare, anche per l'attuale situazione degli studi marxisti, che è presentata in una cornice al cui interno si raffrontano molteplici linee di studio. Non è il caso di sottolineare come questa rappresentazione del pensiero filosofico in generale, e del marxismo in particolare, abbia cercato di tener conto delle trasformazioni verificatesi negli anni che separano questo aggiornamento dall'ultima edizione della Storia. Una situazione diversa sembra invece emergere dai contenuti del volume dedicato alle scienze propriamente dette. Anche qui, la scelta degli autori è stata unicamente condizionata dalla nostra intenzione di valerci di studiosi dotati di spiccate competenze professionali. Ebbene, una prima questione è subito sorta quando ci si è proposti di definire una qualche linea di continuità con gli altri volumi della Stoxv www.scribd.com/Baruhk
Presentazione
ria, e ·una seconda questione si è presentata nell'ambito delle correlazioni tra i vari saggi che formano il tessuto dell'aggiornamento. La prima questione ha una natura che bene si presta a essere descritta per mezzo di esempi. La chimica era certamente presente negli interessi della Storia. Eppure, grazie soprattutto agli sviluppi interni alle scienze chimiche avvenuti negli ultimissimi anni, è mutata la prospettiva lungo la quale è oggi possibile ripensare il passato di tale disciplina. Durante le prima metà del Novecento era popolare l'opinione che la chimica del nostro secolo fosse talmente innovativa rispetto a quella ottocentesca da rendere lecita una distinzione netta tra chimica classica e contemporanea. Oggi, invece, si sta facendo strada il punto di vista secondo cui le attuali conoscenze a livello di architetture molecolari, pur essendo collegate a quelle che la nuova fisica dei quanti ha introdotto nei primi decenni del xx secolo, hanno profonde radici nei programmi classici sviluppati nell'Ottocento. Ciò ha reso necessario, nella stesura del saggio relativo ai più recenti progressi in chimica, un ripensamento dei processi storici che rinviano alla chimica organica e inorganica del secolo scorso. In tal modo sono emersi non solo alcuni aspetti rilevanti a proposito di quei processi, ma sono altresì venute in luce alcune correlazioni che indeboliscono gli steccati che, secondo alcuni studiosi, separerebbero la ricerca in chimica da quella in fisica: interi settori di queste due discipline sono, da tempo, fusi insieme, e la loro fusione non è soltanto una conseguenza dell'uso sistematico di tecniche comuni di laboratorio, ma è il segno di una caduta, a livello concettuale, di distinzioni ormai obsolete che nulla hanno più a che fare con la ricerca concreta. Un secondo esempio è fornito dalla trattazione degli sviluppi della logica verificatisi dopo il 1972. Non a caso il saggio che è rivolto a quegli sviluppi è intitolato «Logica e calcolatore». Questo titolo non vuole suggerire che si siano inaridite le tematiche logiche usuali, ma intende ricordare che il calcolatore ha introdotto prospettive di innovazione radicale sia nelle logiche propriamente dette, sia nella filosofia della logica, sia nell'esplorazione sistematica di quelle procedure che siamo propensi a definire come «intelligenti». Sotto questo aspetto altre separazioni disciplinari, che sino a pochi anni fa sembravano evidenti, si sono volatilizzate. Situazioni analoghe formano la nota dominante dell'intero aggiornamento sulle scienze. La proliferazione degli indirizzi di ricerca che usualmente sono rubricati sotto la voce «Biologia» ci ha spinti a suddividere il tema in alcuni sottotemi rispettivamente dedicati alle conoscenze in biochimica e biofisica, evoluzionismo, sistema immunitario e neuroscienze. Una scelta, questa, che a prima vista può apparire come un omaggio alla settorializzazione o allo specialismo. In realtà, questa scelta ha consentito di mettere in evidenza come non sia più oggi possibile effettuare seri e approfonditi studi biologici senza tener conto dei risultati generali che vengono raggiunti nelle aree dove si esplorano gli specifici problemi di ciascun sottotema: gli sviluppi dell'evoluzionismo, infatti, non sono teoreticamente neutrali rispetto alle scoperte in biochimica, così come le conoscenze che si stanno realizzando nell'eXVI
www.scribd.com/Baruhk
Presentazione
splorazione del sistema immunitario sono rigorosamente connesse a quanto si comincia a capire nei settori rivolti all'analisi teorica e sperimentale in biofisica. Il che, a sua volta, si lega, per un verso, alle scoperte che si stanno effettuando nel campo dell'intelligenza artificiale, il quale sempre più è connesso alla logica, ai calcolatori e alle scienze matematiche; e, per l'altro verso, si rapporta all'intero orizzonte delle neuroscienze e ai quesiti sull'intelligenza, l'apprendimento, la memoria, le emozioni: nuove finestre che si aprono sulla stessa filosofia della mente. Il campo delle scienze più spiccatamente dure, quali la fisica, l'astronomia o la matematica, non offre oggi un panorama dissimile da quello che sembra essere ormai tipico delle discipline sino a ora citate. I confini tra fisica e astronomia si sono dissolti nel momento stesso in cui sono entrate, sulla scena del sapere, le strutture teoriche della teoria generale della relatività e della meccanica quantica relativistica e non relativistica. Le più recenti scoperte astronomiche sono infatti interpretabili solo in contesti teorici di vastissima generalità e la fisica delle particelle elementari e del campo gravitazionale è oggettivamente stimolata da questioni di astrofisica e di cosmologia. E, a loro volta, le conoscenze in fisica e i modelli evoluzionistici stanno alla base dell' esplorazione del nostro pianeta, con gli sviluppi della geofisica e l'attuale dibattito sullo stato della Terra. Nell'esporre l'architettura e le interne articolazioni del contemporaneo sapere sulla realtà non intendiamo in alcun modo contrapporre la crescente astrattezza metodologica della conoscenza scientifica alle esigenze generali che animano la meditazione filosofica e alla tensione unitaria che alimenta gli studi sulla storia del pensiero. Vogliamo, al contrario, aiutare i lettori a capire che la prassi scientifica è, sino in fondo, human understanding, anche nel caso della matematica. È vero che, in quanto human understanding, la prassi scientifica si articola lungo direttrici tra loro distinte e all'interno delle quali opera una spinta verso la specializzazione e la suddivisione dei compiti. Ciò non implica, però, una corsa verso lo svuotamento teoretico. Stiamo al contrario assistendo a un processo di rapida risistemazione delle discipline grazie alla quale la cultura scientifica è sempre più consapevole della propria sostanziale unicità e della propria non neutralità rispetto alla filosofia e alla storia. La ricerca filosofica e storiografica, dal suo canto, sta, come già si è detto, vivendo un periodo di grandi ripensamenti che dipendono dalla constatazione dell' accresciuto divario tra i linguaggi della scienza e quelli della filosofia. Si sta facendo strada, infatti, la presa di coscienza della circostanza che questo stato di cose può essere devastante, sia sul piano della cultura diffusa di stampo umanistico, sia ·su quello delle ricerche filosofiche più raffinate. Non è fuori luogo, in questa sede, ricordare che i due maggiori filosofi della scienza del Novecento, ovvero Popper e Quine, pur coltivando opinioni tra loro diverse su molte questioni, hanno in comune sottolineato l'esigenza, per la filosofia, di avere rapporti più stretti e più specifici con l'impresa scientifica, non al fine di giustificarla o di denigrarla, ma al fine di comprenderla. XVII
www.scribd.com/Baruhk
Presentazione
Questa ultima considerazione dovrebbe consentire ai lettori di cogliere i motivi per cui i saggi dedicati alle scienze si aprono con un aggiornamento sullo stato della filosofia della scienza e si chiudono con alcune pagine sulla storia della scienza. La scelta non va nella direzione di privilegiare due settori tematici che, tradizionalmente, sono stati spesso individuati come membri di diritto delle scienze umane. Essa vuole invece conformarsi all'idea secondo cui non esistono reali barriere tra scienza, filosofia e storia: l'epistemologia e la storia della scienza svolgono infatti, a nostro avviso, una preziosa funzione di cerniera tra mondo scientifico e mondo filosofico. Riteniamo insomma che avesse ragione Geymonat quando sosteneva che la filosofia della scienza e la storia della scienza possono costituire i tragitti ideali percorrendo i quali il cittadino può trovare collegamenti in seno a una cultura che dovrà sempre, per sopravvivere, essere unitaria. In questo senso il volume di aggiornamento relativo alle voci più strettamente connesse alle scienze umane ha una struttura del tutto particolare. In essa trovano ovviamente posto gruppi di problemi che riguardano l'antropologia culturale, la teoria politica, la ricerca estetica, la pedagogia e le vicende più recenti del dibattito sul marxismo. Accanto a tali gruppi, il volume di aggiornamento ospita due ampie voci rispettivamente dedicate ai problemi teorici della ricerca filosofica in italia e ai nuovi scenari filosofici internazionali. Va tuttavia segnalato che il volume in oggetto si rivolge anche a tematiche la cui collocazione interdisciplinare ha caratteristiche che, sotto vari aspetti, ricordano quelle relative alla filosofia della scienza e alla storia della scienza. Stiamo qui parlando della filosofia del linguaggio, con le sue connessioni con la logica, della psicologia, che è naturalmente correlata alle neuroscienze, dei sistemi di comunicazione, dei quali è chiara la dipendenza dall'informatica e dai calcolatori, e della politica delle scienza, il cui ruolo è basilare nella cornice dell'attuale crescita delle conoscenze. E stiamo altresì parlando delle tendenze del pensiero economico negli ultimi quarant'anni, che non sono più certamente inquadrabili nella cornice marxiana che nella Storia aveva avuto tanto peso. Si è soliti dire che, negli ultimi venti o trent'anni, l'universo delle scienze umane ci si presenta come privo di matrici unitarie, incline a trasformare la meditazione filosofica in forma letteraria o in mera lettura filologica dei classici della metafisica, propenso a ridurre l'indagine storiografica a moduli sociologici. In questa immagine della cultura umanistica rientrano giudizi che rispecchiano effettivamente la dinamica di molti filoni di studio. Eppure, come si può rilevare dai saggi contenuti nel secondo volume di aggiornamento della Storia, questa dinamica, pur essendo rilevante, non ricopre per intero lo sviluppo delle scienze umane. Queste ultime, come abbiamo ricordato poc' anzi, sono quanto mai in rapporto con lo svolgersi della conoscenza scientifica. E, sotto questo profilo, la questione che Geymonat aveva posto alle radici della Storia, e cioè la questione dei nessi tra le varie direttrici di crescita del pensiero filosofico e scientifico, è ancora oggi la fonte principale alla quale attingere per illuminare con la ragione i tralicci della cultura contemporanea.
www.scribd.com/Baruhk
Il Novecento (4)
www.scribd.com/Baruhk
www.scribd.com/Baruhk
CAPITOLO
PRIMO
Filosofia della scienza: la chiusura di un ciclo? DI GIOVANNI BONIOLO
I
·
INTRODUZIONE
Molte cose sono accadute all'interno della comunità dei filosofi della scienza negli ultimi trent'anni. Se si dovesse indicarne una sola, adottando il punto di vista assolutamente parziale dato da ciò che in Italia si è discusso e si è pubblicato, si dovrebbe senz' altro considerare lo sfaldarsi del ruolo egemonico della metodologia popperiana sotto i colpi di maglio sferrati, direttamente, da I. Lakatos (1922-74), P.K. Feyerabend (1924-94) e, indirettamente, da Th. Kuhn (n. 1922). Tuttavia l'Italia non è un buon punto di osservazione, essendo, sfortunatamente, quasi del tutto esclusa dalla ricerca epistemologica d'avanguardia ed essendo più terreno su cui fluttuazioni epistemologiche, o paraepistemologiche, straniere attecchiscono e si sviluppano in modo sorprendente (si ricordi, per esempio, il successo della versione «filosofica» della termodinamica dei processi irreversibili e della teoria delle catastrofi, oppure la pervasività del «paradigma» della complessità), piuttosto che luogo di approfondimento e di formulazione di nuove proposte. Se si assume, invece, come riferimento, ciò che si pubblica fuori dai patrii confini, ci si accorge che il quadro è ben diverso. Innanzi tutto, il dibattito sulla metodologia popperiana è stato solo uno fra i molti che hanno animato la scena della filosofia della scienza; in secondo luogo, tale metodologia è stata oggetto non solo di critiche «esterne», quelle alla Lakatos-Feyerabend, ma anche di critiche «interne», che in Italia sono state quasi del tutto trascurate. È forse proprio in seguito alla fine dell'egemonia del dibattito sul metodo popperiano che, da qualche tempo, anche in Italia si è incominciato a discutere con maggior interesse di autori quali W.V.O. Quine (n. 1908), N. Goodman (n. 1906), H. Putnam (n. 1926), B. Van Fraassen (n. 1941), da decenni presenti sulla scena internazionale e il cui pensiero, peraltro totalmente diverso da quello dei popperiani e dei post-popperiani, è stato e continua a essere estremamente fecondo e profondo. Inoltre, accanto all'interesse per autori prima poco frequentati, si è delineata un'attenzione sempre più viva per i problemi fondazionali e filosofici delle scienze particolari, dalla meccanica quantistica alla relatività, dalla biologia alla matematica, dalla medicina alle scienze sociali. 3
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
L'interesse verso temi di filosofia delle scienze particolari ha stimolato gli studiosi a impadronirsi di un necessario bagaglio di conoscenze tecnico-formali che in passato era stato spesso trascurato a favore di una preparazione più strettamente filosofica (nel senso storicista del termine). Questo atteggiamento se radicalizzato conduce però all'eccesso di chi considera l'avere una buona base tecnico-formale condizione non solo necessaria ma anche sufficiente per poter fare filosofia della scienza con il risultato di trasformare quest'ultima in una disciplina estremamente formalizzata dove di filosofico è rimasto solo il nome. A partire da un'interpretazione esasperata di una certa parte del programma neopositivista, alcuni hanno pensato che tutti i problemi filosofici potessero essere risolti attraverso la matematica e la logica. Ma, come ben sanno i «continentali», ciò è falso. Anche se la riflessione sulla scienza deve tener conto di ciò che la scienza afferma, non è affatto detto che debba usare le stesse tecniche, lo stesso linguaggio, lo stesso metodo. Proprio considerando la produzione filosofica attuale, e tenendo conto del suo impatto globale, non si può non rimpiangere autori che, come K.R. Popper (1902 -94), hanno proposto una concezione filosofica complessiva comprendente sia parti metodologiche generali sia parti relative ad aspetti specifici di discipline specifiche sia, ancora, riflessioni che investono anche scienze «non dure», quali l'economia, la storia, ecc. Nonostante le critiche che gli possono essere mosse, Popper resta senza ombra di dubbio uno dei due massimi filosofi della scienza contemporanei; l'altro è Quine, che purtroppo in Italia viene considerato solo marginalmente. Tuttavia, pur mancando in questi ultimi decenni una nuova proposta filosofica globale alla Popper o alla Quine, vi sono stati dibattiti interessanti ed estremamente profondi che hanno consentito un avanzamento della conoscenza filosofica su aspetti cruciali del significato della ricerca scientifica. Nella trattazione che segue, dopo aver esaminato le critiche «interne» alla concezione popperiana, si analizzeranno tre di questi aspetti, nella fattispecie quelli su cui si è maggiormente concentrata l'attenzione della comunità internazionale e dai quali è possibile apprendere qualcosa di generale sullo sviluppo della filosofia della scienza contemporanea. I quattro punti che toccherà questa ricostruzione - le critiche «interne» a Popper, l'ampliamento dell'ambito della razionalità, la spiegazione scientifica e il realismo scientifico - non sono affatto slegati come di primo acchito potrebbe sembrare, ma sono, come si vedrà, strettamente interdipendenti tanto che il passaggio dall'uno all'altro è del tutto consequenziale. n loro esame consentirà oltretutto di enucleare una possibile riflessione, che proporremo nel paragrafo conclusivo, sullo sviluppo della filosofia della scienza degli ultimi ottant'anni di questo secolo.
4
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo? II
· LE
CRITICHE
«INTERNE»
ALLA
CONCEZIONE POPPERIANA
Due motivi inducono a soffermarsi sulle obiezioni «interne» alla concezione di Popper: il primo è che queste sono meno conosciute ai non addetti al lavoro delle obiezioni «esterne», il secondo è l'importanza che esse hanno per capire a fondo il nucleo della metodologia falsificazionista, che ha in alcuni casi corso il rischio di essere trasformata in dogma: il peggior pericolo per una proposta filosofica che della critica fa la sua bandiera. Per critiche «esterne» intenderemo quelle sollevate, a partire dagli anni settanta da autori quali Lakatos, Feyerabend e Kuhn, secondo cui la concezione popperiana non rende efficacemente conto del reale andamento della dinamica scientifica. Ma mentre Kuhn, in La struttura delle rivoluzioni scientifiche (1970), libro che ebbe un enorme successo non solo fra i filosofi della scienza, presentava una concezione che si differenziava totalmente da quella popperiana sia per la struttura sia per la tradizione a cui si rifaceva, Lakatos, in due saggi estremamente rilevanti (Lakatos, 1970 e 1971), tentava di rendere «più sofisticato» il falsificazionismo di Popper. Infine, il terzo protagonista di questo dibattito, Feyerabend, in Contro il metodo (1975) - un lavoro provocatorio e paradossale per le tesi sostenute e per le argomentazioni utilizzate, che talvolta è stato interpretato troppo « foldoristicamente » - si proponeva di mostrare come il falsificazionismo popperiano e la versione sofisticata lakatosiana fossero due prigioni metodologiche all'interno delle quali era assolutamente impossibile rinchiudere, se non a prezzo di deformazioni e fraintendimenti, il reale lavoro del ricercatore. Il momento centrale del dibattito fra Popper e Kuhn, da un lato, e fra Popper, Lakatos e Feyerabend, dall'altro, si ebbe nel 1965, quando a Londra si tenne un Colloquio di Filosofia della Scienza al quale parteciparono, fra gli altri, i filosofi menzionati. A dire il vero, più che il Colloquio stesso ebbero grande risonanza gli Atti, pubblicati nel 1970 (Lakatos e Musgrave, 1970), che costituirono, e costituiscono tuttora, un'opera estremamente importante per capire quanto stava accadendo e per entrare nel merito delle problematiche nodali inerenti al metodo scientifico. 1 Per critiche «interne» intenderemo invece le obiezioni che sono state rivolte ad alcuni aspetti fondamentali della concezione popperiana. Essendo estremamente ampia la proposta filosofica di Popper, le critiche «interne» risultano molteplici: esse investono la sua interpretazione propensionale del calcolo delle probabilità e della meccanica quantistica, il suo modo di interpretare la relatività einsteiniana, la sua avversione alla teoria dei reticoli, il suo modo di fare storia della scienza, la sua
r Il dibattito scaturito da queste critiche «esterne>> è ormai ampiamente noto. Per una discussione delle tesi dei post-popperiani si rinvia al capitolo di G. Giorello, Filosofia della scienza e storia della scienza nella cultura di lingua inglese,
nel vol. IX della Storia del pensiero filosofico e scientifico di L. Geymonat (1976). Si vedano inoltre: Gillies e Giorello, 1995 e Antiseri, 1996; una propaggine del dibattito può essere trovata in Lakatos e Feyerabend, 1995.
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
filosofia della storia e della politica. Tuttavia, poiché la proposta popperiana nasce come riflessione intorno al metodo scientifico le obiezioni più importanti sono quelle rivolte ai cardini di tale riflessione: il falsificazionismo e la teoria della verisimiglianza, entrambi cardini logici. 2 Sebbene essi siano stati proposti in epoche differenti - il primo risale alla giovinezza di Popper mentre il secondo vede la sua formulazione fra il 1962 e il 1970 - le principali critiche risalgono allo stesso periodo, ossia agli anni fra il 1974 e il 1976. Ciò che colpisce è che tali critiche, sicuramente le più importanti in quanto se effettivamente efficaci possono rivelarsi distruttive per l'impianto popperiano, siano state completamente sottovalutate dal grande pubblico a favore di un dibattito quello «esterno» - certamente meno tecnico e più affascinante, specie per la presenza delle provocazioni feyerabendiane, ma anche meno significativo rispetto al valore intrinseco dell'epistemologia popperiana. 1)
I due problemi del falsi/icazionismo
n tema del falsificazionismo viene identificato, non del tutto scorrettamente, come la filosofia di Popper. In realtà, essa non è affatto riducibile al falsificazionismo, inteso in senso stretto, ma questo la pervade totalmente essendo, con gli opportuni adattamenti, il nucleo anche della filosofia della politica e della filosofia della storia oltre che, naturalmente, il vero momento centrale della filosofia della scienza del pensatore austriaco. Comprendere a fondo la struttura e il valore del falsificazionismo equivale ad avere i giusti attrezzi concettuali per affrontare le altre tematiche. Parlare di falsificazionismo significa, almeno inizialmente, parlare del modus tollens, ossia di quel modo di inferire tipico della logica classica secondo cui ((T___.. c) A---, c)___..---, T. Ovvero, se dalla proposizione T si deduce la conseguenza c, ma c non si dà, allora non si dà nemmeno T. Come è noto, e come Popper racconta nella sua autobiografia (Popper, 1976), nel1919, riflettendo sul significato per la gravitazione einsteiniana dell'osservazione astronomica fatta in quello stesso anno da A. Eddington, egli si rese conto della differenza che vi era fra la relatività generale, le teorie psicoanalitiche di Adler e Freud e la teoria di Marx. Mentre la prima, già al momento della sua formulazione, ammetteva dei potenziali falsificatori, ossia delle conseguenze che, se non si davano empiricamente, portavano, via modus tollens, alla sua confutazione, le altre non li ammettevano, né i loro autori li cercavano. In realtà, in queste teorie si lavorava solo per trovare fatti che potessero verificarle. Ma, sottolinea Popper, vi è una sostanziale differenza fra falsificazione e veridella teoria popperiana del metodo scientifico si veda O'Hear, 1980; per le critiche al falsificazionismo si veda anche Parrini, 1980; per le critiche alla verisimiglianza Antiseri, 1996.
2 Sul pensiero di Popper si rinvia al capitolo di G. Giorello, Il falsi/icazionismo di Popper, nel vol. VII della Storia del pensiero filosofico e scientifico di L. Geymonat (1976). Sui due cardini logici
6
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
ficazione: mentre sono necessari infiniti fatti per verificare una teoria, ne basta uno solo per falsificarla. Dunque, la teoria di Einstein poteva essere empiricamente falsificata e proprio nella sua falsificabilità consisteva la sua scientificità; per contro, nell'infalsificabilità empirica delle teorie di Marx, Adler e Freud stava la loro non scientificità. Tale nucleo teorico, sviluppato nel 1934 nella Logik der Forschung, ripubblicata nel 1959 in versione ampliata come The logic o/ scienti/ic discovery, viene poi da Popper agganciato a temi quali il progresso scientifico, il metodo delle congetture e confutazioni, la razionalità. I problemi sollevati dal criterio di falsificazione sono sintetizzabili in domande del tipo: è veramente non ambiguo il criterio di falsificazione? riesce veramente a caratterizzare in modo forte la scientificità? risolve tutti i problemi connessi con il metodo scientifico? Prima di esaminare le risposte che si possono dare a questi interrogativi, merita di venir sottolineato un punto che dovrebbe ritenersi storicamente acquisito, ma che invece risulta non esserlo: non è assolutamente vero che Popper abbia inventato il modus tollens o il falsificazionismo, e d'altronde mai Popper ha cercato di attribuirsene il merito. n modus tollens è un metodo di inferenza tipico della logica classica, conosciuto fin dall'epoca medievale e addirittura sin da allora usato come strumento metodologico da pensatori quali Roberto Grossatesta e Giovanni Buridano. Ne consegue che da allora la differenza fra falsificazione e verificazione, ovvero l'asimmetria fra i due, era ben nota agli specialisti, anche se non nei termini contemporanei. Ne è prova un passo della Crz"tica della ragion pura dove Kant afferma esplicitamente che, mentre servirebbero infiniti fatti per rendere vera una proposizione, ne basta uno solo per renderla, via modus tollens, falsa. 3 D'altro canto, il fatto che le teorie scientifiche fossero teorie empiricamente confutabili era qualcosa di praticamente accettato da tutti i protagonisti del dibattito epistemologico fra la metà dell'8oo e l'inizio del '900. Se si rifacesse la storia di questo vivacissimo periodo intellettuale, ci si accorgerebbe che essi erano consapevoli non solo della falsificabilità delle teorie scientifiche, ma anche di molti altri temi oggi discussi, come la sottodeterminazione teorica a causa dei dati, la teoreticità dell'osservazione, la non perfetta commensurabilità fra teorie scientifiche diverse. Se è vero che l'aspetto metodologico della confutazione empirica era qualcosa di pressoché pacifico per gli scienziati-filosofi della fine dell'8oo, ne segue immediatamente che il falsificazionismo di Popper perde quell'originalità con cui solitamente lo si qualifica. In effetti, il falsificazionismo popperiano potrebbe ugualmente essere considerato originale, a patto però di specificare che lo sarebbe solo in rapporto alla tradizione neopositivista che, in modo abbastanza paradossale (dal momento che si rifà esplicitamente ad alcuni autori del dibattito fra '8oo e '9oo) ha contri-
3 Si veda Kant, 1787, trad. it., p. 603.
7
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
buito fortemente a eliminare la memoria storica delle loro riflessioni. Così il falsificazionismo di Popper appare storicamente originale solo a chi ignora lo stato del dibattito epistemologico prima del neopositivismo, ma non a chi ne è a conoscenza. In ogni caso, anche se Popper non ha scoperto né il modus tollens né il falsificazionismo in quanto strumento metodologico, l'uso che ne ha fatto è totalmente nuovo, dal momento che su di esso ha costruito un grandioso edificio epistemologico che gli ha permesso di affrontare e di unificare temi metodologici apparentemente distanti come mai nessuno prima di lui era stato in grado di fare. In questo consiste la grandezza di Popper filosofo della scienza: non tanto nel falsificazionismo in senso stretto, ma nell'uso che ne ha fatto. Ed è proprio per questo che è importante capirne la reale valenza. Tradizionalmente, due sono le critiche principali contro il falsificazionismo popperiano. La prima riconsidera l'argomento olistico di P. Duhem (1861-1916), la seconda ha come sfondo la questione delle ipotesi ad hoc. a) Il problema dell' olismo. La prima formulazione precisa della critica avente a che fare con l'olismo risale al 1976, anno in cui A. Griinbaum (n. 1923) pubblica quattro saggi in cui attacca il cuore logico della teoria di Popper (Griinbaum 1976a, 1976b, 1976c, 1976d). È nel primo di questi saggi che Griinbaum ricorda come il falsificazionismo debba fare i conti con la tesi proposta da P. Duhem agli inizi del secolo. n titolo del paragrafo de La teoria fisica (1914, II edizione) in cui Duhem introduce il suo argomento recita: «Un esperimento di fisica non può mai condannare un'ipotesi isolata, ma soltanto tutto un insieme teorico», per cui, come afferma decisamente il titolo del paragrafo successivo, «In fisica è impossibile fare l' experimentum crucis. »4 In questi due paragrafi, Duhem sostiene che i risultati degli esperimenti e delle osservazioni non vengono mai confrontati con una proposizione isolata, ma sempre e solo con un intero sistema di proposizioni, in quanto all'interno della scienza non esistono proposizioni isolate, ma solo proposizioni mutuamente correlate. Quindi se l'esito dell'esperimento di controllo è negativo, ciò che deve essere «condannato» non è una singola proposizione, bensì un intero sistema di proposizioni. Da ciò segue che non è metodologicamente possibile fare un esperimento cruciale capace di dirimere fra la verità e la falsità di due proposizioni in competizione, in quanto in gioco vi sono sempre sistemi di proposizioni. Mentre per Popper data una proposizione T, si deduce da essa la conseguenza c, e se questa empiricamente non si dà allora, via modus tollens, T è falsificata, per Duhem nella scienza non si incontra mai una proposizione isolata, ma sempre un sistema di proposizioni
. Ne segue che l'esperimento negativo, sempre via
4 Duhem, 1914', parte II, cap. VI, parr. 2 e 3·
8
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
modus tollens, può essere diretto solo contro tale sistema nella sua interezza, ossia, ((-+ c);...--, c) -+-,. Questo però comporta che non sappiamo quale sia la vera causa della conseguenza che non si dà, ovvero non sappiamo dove dirigere precisamente la freccia del modus tollens. Infatti, per dirla con Duhem, non sappiamo se la causa della «condanna» dell'intero sistema sia da imputare a una data t.,t o a una certa combinazione di n-1 proposizioni del sistema. In questo caso, secondo Duhem, deve entrare in gioco la fiducia del ricercatore. Infatti solo la fiducia che egli ripone su un certo insieme di proposizioni del sistema confutato gli permetterà di non considerarle la causa del fallimento empirico e quindi gli consentirà di incolparne altre. In altri termini, solo se lo scienziato ha fiducia in certe n-1 proposizioni del sistema potrà ritenere che la freccia del modus tollens debba essere rivolta contro la restante n-esima proposizione. In questo modo però si esce dalla logica. In effetti, la logica non ci può essere di alcun aiuto nella scelta delle n-1 proposizioni da considerare corrette, e quindi nella scelta della restante n-esima proposizione da considerare errata. La logica ci dice solo che l'intero sistema è stato «condannato», nulla più. Appare subito evidente quanto questo argomento possa essere devastante per il falsificazionismo di Popper - o almeno di un certo Popper - , secondo cui dovrebbe essere sufficiente l'analisi logica della struttura di una teoria per individuare la sua scientificità (si noti che, per Popper, una proposizione isolata è già una teoria). Bisogna però sottolineare che Popper era ben consapevole delle difficoltà che tale argomento comportava per la sua concezione, tanto che, fin dall'edizione del 1934 della Logica della scoperta scientz/ica, tentò di esorcizzarlo. Il nucleo del primo saggio di Griinbaum sta proprio nel confronto fra quanto affermava Duhem agli inizi del secolo e quanto gli fa dire Popper nel 1934, e poi nel 1959, al fine di sbarazzarsi della sua critica olistica. Dalla lettura sia di questo saggio sia delle pagine di Duhem e di quelle in cui Popper parla di Duhem, si ricava un'impressione assai strana. Segnatamente che il Duhem di cui parla Popper non sia il Duhem nato a Parigi nel 1861, morto a Cabrespine nel 1916 e autore de La teoria fisica, ma un altro Duhem: uno che scrisse delle cose assolutamente non pericolose per l'impianto epistemologico popperiano. Innanzi tutto, secondo Popper, Duhem rifiuterebbe gli esperimenti cruciali considerandoli come delle verificazioni e in ciò errando dal suo punto di vista falsificazionista.5 Ma questo non è vero, come si può intuire facilmente notando che Duhem parla esplicitamente di «condanna» di un intero sistema e non di «verificazione». Griinbaum ricorda che tale interpretazione mistificante delle tesi di Duhem è stata successivamente rivista da Popper, tanto da ristabilire la correttezza filologica.6 Tuttavia non per questo Popper arriva ad accettare la critica duhemiana, che
5 Popper, 1959, trad. it., p. 66, nota r.
6 Popper, 19693 , trad. it., pp. 194-195 e nota 26.
9
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
d'altronde sarebbe mortale per il suo falsificazionismo originale. Egli tenta allora un escamotage, ossia introduce la tesi secondo cui una teoria T è costituita da «ipotesi maggiori» H e da «ipotesi ausiliarie» A. Quando si hanno due teorie rivali, T e T', in realtà si hanno due sistemi teorici rivali T=H AA e T' =H' AA', le cui rispettive conseguenze, c e c', sono incompatibili. Se l'esperimento cruciale è favorevole a c e sfavorevole a c', si tratta di decidere quale fra le due teorie, T e T', sia da considerare falsificata. Secondo Popper, Duhem ha trascurato il fatto che A =A'; in tal caso, infatti, si può imputare facilmente a H' la causa del fallimento empirico del sistema H' AA' e quindi della falsificazione di T'. Sarebbe così annullato l'effetto dell'argomento duhemiano. Tuttavia, fa notare Griinbaum, questo non è vero, in quanto Duhem non ha affatto trascurato la possibilità che certe ipotesi possano essere uguali per entrambe le teorie, ma ha invece sottolineato che noi non possiamo mai essere sicuri, oltre che della verità di H e H', nemmeno della verità delle proposizioni in comune, cioè di A. Ne segue che non possiamo affatto dire che T' è falsificata perché H' è stata falsificata. Questo è il motivo per cui non possiamo fare un esperimento cruciale né dirigere con precisione la freccia della falsificazione. 7 In realtà, Popper stesso ammette, poche righe dopo, che A possa essere errata; in tal caso non si potrebbe affatto imputare a H' la causa della falsificazione. Ma a questo punto Popper sta dicendo esattamente quello che diceva Duhem. Infatti, se si legge attentamente il passo di Congetture e confutazioni in cui Popper tratta tale questione, ci si accorge che, implicitamente, egli ammette che (1) abbiamo sempre a che fare con un sistema di proposizioni; (2) per dirimere la questione dell'imputazione del fallimento empirico dobbiamo far entrare in gioco la fiducia che un certo scienziato ha in un certo insieme di proposizioni. In questo modo, risulta inficiato il ruolo forte del criterio di falsificazione: l'analisi logica di una teoria non può indicare la causa della falsificazione; per determinarla occorre uscire dalla logica ed entrare nel regno meno sicuro delle credenze e della fiducia. Ed è Popper stesso che afferma esplicitamente che è «l'istinto del ricercatore [. .. ] che gli fa indovinare quali asserzioni [. .. ] debbano essere considerate innocue e quali debbano essere considerate bisognose di modificazione». 8 Dalla fiducia era partito Duhem, alla fiducia è inevitabilmente costretto ad arrivare Popper, ossia all'unico modo che il ricercatore ha per individuare qualcosa che la logica non gli consente di individuare: la causa del fallimento empirico. b) Il problema delle ipotesi ad hoc. La seconda classica critica alla falsificazione riguarda la possibilità di introdurre ipotesi ausiliarie. Supponiamo che da una teoria T si estragga la conseguenza c che empiricamente non si dà. In tal caso, T
8 Popper, 1959, trad. it., p. 64, nota 2.
7 Griinbaum, 1976a, pp. 248·249.
IO
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
sarebbe confutata. È però sempre possibile aggiungere a T un'ipotesi h, tale che T 1\ h riesce a cooptare positivamente il risultato empirico che prima confutava T. Ossia, se ((T--+ c) 1\ (-,c =c')) --+ --, T, allora l'introduzione di h è tale che da T 1\ h si deduce proprio quel c' in accordo con l'esperienza e quindi T, seppur modificata, è salva. Anche in questo caso, Popper era ben consapevole che tale possibilità rappresentava un ostacolo per il suo metodo, tanto che, fin dal '34, si adoperò per eliminarla, ossia per espungere dalla scienza questo tipo di «stratagemmi convenzionalistici » o, come li chiamerà seguendo H. Albert, «immunizzazioni contro la critica ». 9 Appare tuttavia subito chiaro che la logica non vieta affatto di aggiungere ipotesi ausiliarie che possano «immunizzare la critica» empirica. In effetti, esse possono essere vietate solo ricorrendo a un ukase metodologico del tipo: «Non aggiungere ipotesi ausiliarie per salvare la teoria dalla falsificazione. >> In questo modo ci si metterebbe sicuramente al riparo dalla possibilità di salvare la teoria dalla falsificazione, ma sarebbe un modo troppo drastico giacché toglierebbe all'operare scientifico una possibilità che si è rivelata estremamente feconda. Basta uno sguardo appena superficiale alla storia della scienza per rendersi conto che vi sono state ipotesi ausiliarie che hanno portato alla scoperta di aspetti empirici non noti. L'esempio discusso da Popper è quello, emblematico, dell'introduzione, fatta nella seconda metà dell'800, di un'ipotesi ausiliaria per salvare la teoria della gravitazione classica dalla falsificazione. Secondo la teoria di Newton (la teoria n, l'orbita di Urano doveva essere tale che il pianeta in un dato momento avrebbe dovuto trovarsi in una data posizione (la conseguenza c). Invece, si constatò che in quel momento Urano si trovava in un'altra posizione (la negazione di c, ossia --,c= c'). Ne seguiva che la teoria di Newton doveva considerarsi falsificata (--,n. Per evitare la falsificazione si propose (l'ipotesi ausiliaria h) che vi fosse un nuovo pianeta, poi chiamato Nettuno, la cui presenza perturbava l'orbita di Urano in modo tale che, in quel dato momento, la sua posizione non fosse quella indicata da c, ma da c' (ossia (T 1\ h) --+c'). Così non solo si salvò la teoria di Newton dalla falsificazione, ma si arrivò pure alla scoperta di un nuovo pianeta. Tenendo conto di questo precedente, non si può imporre un comando metodologico troppo drastico, come quello sopra enunciato. Si pone però il problema di fornire un criterio di demarcazione non ambiguo che permetta di capire quali siano le ipotesi ausiliarie «buone» che possono essere inserite. La soluzione popperiana consiste nel dividere le ipotesi ausiliarie «buone» dalle ipotesi ausiliarie «cattive», quelle ad hoc, ricorrendo al criterio secondo cui le ipotesi ausiliarie «buone» sono solo quelle che possono essere controllabili indipendentemente. La
9 Popper, 1974b, nota 35·
II
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
regola di prima può allora venire così riformulata: «Non indulgere troppo nell'introduzione di ipotesi ausiliarie, tuttavia, quando lo fai, introduci solo ipotesi ausiliarie controllabili indipendentemente, ossia solo quelle non ad hoc. » Ormai la logica è fuori gioco; si sta infatti lavorando con le regole della metodologia. La logica (nella fattispecie il modus tollens) nulla può contro l'introduzione di ipotesi ausiliarie. Sembrerebbe però che le cose tornino a funzionare dentro il mondo della logica proprio grazie all'introduzione del criterio di ad hocneità, avendo questo una forte connotazione logica. Sfortunatamente così non è, come vedremo seguendo Griinbaum (1976c, 1976d) che ha mostrato come non sia possibile avere un criterio di demarcazione basato sulla controllabilità indipendente. Se questo è vero, l'ultima versione della norma metodologica popperiana diventa molto meno p regnante. Essa si limiterebbe infatti ad affermare: «Non indulgere troppo nelle ipotesi ausiliarie», e diventerebbe più un consiglio morale che un comando metodologico avente una qualche valenza epistemologica. Seguiamo ora il ragionamento di Griinbaum, che consentirà di affrontare un altro aspetto logico dell'impianto popperiano. Per afferrarlo nella sua completezza occorre richiamare tre nozioni popperiane: quelle di contenuto logico, contenuto informativo e contenuto empirico di una teoria. Nel cap. VII della sua autobiografia (Popper, 1976), Popper definisce esplicitamente questi termini, peraltro in parte già presenti nella Logica del 1959. Data una teoria T, il suo contenuto logico (CL) è - tarskianamente -l'insieme delle conseguenze non-tautologiche deducibili dalla teoria. Il suo contenuto informativo (CD è l'insieme degli asserti con essa incompatibili. Infine, il suo contenuto empirico (CE) è quella sottoclasse di proposizioni del contenuto informativo costituita da asserti empirici, ossia dai «falsificatori potenziali». Quindi, data una teoria T, tutte le proposizioni che appartengono al suo CE o CI (con CE c CI) sono ovviamente in contraddizione con la stessa T, ossia con il suo CL. Precisato ciò, si può fornire la definizione popperiana di ipotesi ausiliaria, ricordando che se un'ipotesi è controllabile indipendentemente dal caso per il quale è stata introdotta, allora essa può essere empiricamente confutata e contribuisce ad aumentare il grado di falsificabilità della teoria a cui è stata aggiunta, cioè il contenuto empirico della teoria stessa, ossia l'insieme dei suoi falsificatori potenziali. Pertanto, un'ipotesi ausiliaria non ad hoc, ossia un'ipotesi ausiliaria «buona», è quell'ipotesi che non diminuisce il grado di falsificabilità, o di controllabilità del sistema, ma che anzi lo aumenta, ovvero è un'ipotesi che aumenta il contenuto empirico di una teoria. Popper insiste con enfasi su ciò che contraddice una teoria (il suo CE) più che su ciò che essa asserisce positivamente (il suo CL), atteggiamento d'altronde coerente con la sua impostazione, dove ha più valore ciò che falsifica che non ciò che conferma. Infatti se una teoria viene falsificata, essa sarà sostituita da una nuova teoria che quindi rappresenterà un progresso rispetto alla prima; per favorire il pro12
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
gresso della scienza bisogna cercare di falsificare le teorie di cui disponiamo e, ancor prima, occorre costruire le teorie in modo che siano falsificabili. È Popper stesso che tiene a sottolineare quanto la sua nozione di contenuto informativo non sia assurda perché «si può immediatamente vedere [ ... ] che gli elementi di questo insieme [del contenuto informativo] e gli elementi del contenuto logico stanno in una corrispondenza uno-a-uno: per ogni elemento che si trova in uno dei gruppi c'è nell'altro gruppo un elemento corrispondente, cioè la sua negazione. Troviamo quindi che ogni volta che in una teoria cresce o decresce la forza logica, o la potenza, o la quantità dell'informazione, allo stesso modo deve crescere o decrescere sia il suo contenuto logico sia il suo contenuto informativo. Ciò dimostra che le due idee sono molto simili: c'è una corrispondenza uno-a-uno tra ciò che si può dire dell'uno e ciò che si può dire dell'altro ». 10 Ritorniamo ora alla critica di Griinbaum. Seguendo il brano appena citato di Popper, e date due teorie T e T', si ha che (CI( D c CI( T'))+--+ (CL(D c CL(T')), ossia il contenuto informativo di una teoria T è un sottoinsieme del contenuto informativo di una teoria T' se e solo se lo stesso avviene per i due corrispondenti contenuti logici. Ora, continua Griinbaum, supponiamo che T sia una teoria da cui si estrae la conseguenza c contraddetta da un esperimento, secondo il quale, invece, si dovrebbe avere c'. In tal caso T sarebbe falsificata. Possiamo aggiungere a T l'ipotesi ausiliaria h, in modo che ((T 1\ h)= T')----+ c'. Ossia T' è la nuova teoria, ottenuta modificando T in modo da cooptare esiti sperimentali prima sfavorevoli. Visto che T implica la negazione di c' (T-+ (c=-, c')), mentre T'implica c' (T'-+ c'), allora T e T' sono logicamente incompatibili, nel senso specifico che nessun insieme di conseguenze di una può essere un sottoinsieme delle conseguenze dell'altra. Questo vuoi dire che CL(T'), cioè il contenuto logico della teoria modificata, non può mai includere il CL(D, ossia il contenuto logico della vecchia teoria non modificata. Ma, dal momento che il CL di una teoria e il suo CI sono legati dalla relazione vista sopra, CI(T') non può mai includere il CI(D come suo sottoinsieme proprio, fatto che puÒ essere intuito anche tenendo conto che c'E CI(D, essendo un falsificatore di T, ma c'e= CI(T') in quanto è una sua conseguenza, ovvero c'E CL(T'). A fortiori, c'E CE(D, ma c'e= CE(T') e quindi CE(T') non contiene come suo sottoinsieme proprio CE(D. Questo significa, conclude Griinbaum, che il criterio popperiano per l' ammissibilità di un'ipotesi ausiliaria è vuoto. Il baco del ragionamento popperiano sta nel
10 Popper, 1976, p. 28.
13
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
ritenere, fallacemente, che il contenuto empirico di una teoria modificata con l'aggiunta di un'ipotesi ausiliaria «buona» contenga il contenuto empirico della teoria non modificata, ossia che CE(T')::::) CE(n, in quanto la prima è più falsificabile della seconda. In altri termini, non è vero, esemplificando, che il contenuto empirico della teoria newtoniana modificata con l'aggiunta dell'ipotesi dell'esistenza di Nettuno contenga il contenuto empirico della teoria di Newton senza questa aggiunta. In definitiva, non è vero che l'aggiunta dell'ipotesi su Nettuno aumenti il grado di falsificabilità della teoria di Newton. Di conseguenza, non vale affatto il tentativo popperiano di demarcare le ipotesi ausiliarie «buone» da quelle ad hoc in base all' aumento del grado di falsificabilità che le prime comporterebbero per la teoria alla quale sono state aggiunte. Questo risultato non comporta, tuttavia, che non si possa trovare un criterio non vuoto e non ambiguo per demarcare le ipotesi ausiliarie «buone» da quelle ad hoc. In effetti, vi sono stati altri tentativi (su cui non è possibile soffermarsi in questa sede) per definire l'ammissibilità di un'ipotesi ausiliaria, ossia per definire le ipotesi non ad hoc. Griinbaum (1976d) è però piuttosto scettico sull'effettiva validità di criteri alternativi, tanto che si trova d'accordo con quanto aveva già affermato nel 1966 C.G. Hempel (n. 1905), per il quale «non esiste [. .. ] alcun criterio preciso per riconoscere le ipotesi ad hoc». n risultato a cui si giunge è che il criterio popperiano per demarcare l'ad hocneità è vuoto. 11 Questo significa, come si è notato, che il comando metodologico popperiano relativo alle ipotesi ausiliarie diventa piuttosto povero, potendosi limitare solo a suggerire di non usarne troppe. Tuttavia, anche supponendo che il criterio di demarcazione popperiano sia non vuoto e sappiamo perciò con precisione quando un'ipotesi ausiliaria è ad hoc, vi è da notare che esiste sempre la possibilità di aggiungere ipotesi ausiliarie «buone» una dopo l'altra rendendo così de facto infalsificabile la teoria. Infatti, se T è la teoria falsificata, a questa è possibile aggiungere l'ipotesi ausiliaria «buona» h. Se (T A h) è falsificata, è possibile aggiungere l'ipotesi ausiliaria «buona» h 1• Se ((T 1\ h) 1\ h 1) è falsificata, è possibile aggiungere l'ipotesi ausiliaria «buona» h2 • E così via. Certo, Popper consiglia di non aggiungerne troppe. Ma quando ci si deve fermare? Chi assicura che, se ci si ferma alla hn, non ci sia una hn + 1 che potrebbe permettere una nuova conoscenza empirica? Evidentemente nessuno. E quindi anche in questo caso non resta che demandare la scelta di quando smettere a quell'« istinto del ricercatore» di cui Popper parlava a proposito dell'argomento duhemiano. Di nuovo si è assai distanti dal mondo della logica entro il quale Popper sperava di poter decidere della scientificità di una teoria.
n Lo stesso Popper (1974b, pp. 986-987) ammette che tale criterio risulta un po' vago. Su
Popper e le ipotesi ad hoc, si veda Bamford, 1993.
14
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
c) Ricordando uno dei paradossi di Hempel. In questo contesto merita di essere richiamato un terzo problema del falsificazionismo sollevato da Hempel già nel 1950. Hempel metteva in evidenza che se abbiamo una proposizione T falsificabile («Tutti i cigni sono bianchi») e una proposizione M chiaramente non falsificabile («L'assoluto è perfetto»), allora la congiunzione T "M è pure falsificabile (Hempel, 1950). Infatti se esistono dei falsificatori potenziali di T a maggior ragione questi saranno falsificatori potenziali di T" M. Ne segue che è possibile ottenere una proposizione, T" M, che popperianamente è scientifica, in quanto falsificabile, ma che nessuna comunità di scienziati sarebbe disposta ad accettare come tale. Si può supporre la possibile contromossa di Popper; questi avrebbe infatti aggiunto una nuova regola metodologica, del tipo: «Non aggiungere mai proposizioni non falsificabili a proposizioni falsificabili.» Tuttavia fare questo comporta, in primo luogo, abbandonare ancora il mondo della logica e, in secondo luogo, avere già da subito chiaro il legame fra falsificabilità e scientificità. Visto, però, che tale legame è chiarito solo metodologicamente, la nuova norma sarebbe autoreferenzialmente viziosa; dovrebbe infatti permettere di chiarire qualcosa presupponendo già che questo qualcosa sia chiaro. Si noti, fra l'altro, che l'aggiunta di ipotesi non falsificabili di questo tipo è diversa dall'aggiunta, fatta per salvare la teoria dalla falsificazione, di ipotesi ausiliarie ad hoc h non falsificabili. Tale operazione porta all'infalsificabilità della teoria, la prima invece mantiene la falsificabilità della teoria. Questo accade perché h è la spiegazione non falsificabile del fallimento empirico di T, mentre M è completamente indipendente da T. d) Conclusioni sul criterio di falsificazione. Da quanto detto, appare chiaro che il criterio di falsificazione non può affatto essere un criterio logico, anche se si basa su un elemento di logica classica qual è il modus tollens. In realtà si tratta di un criterio metodologico che asserisce in modo estremamente vago: I) che per falsificare una proposizione bisogna avere fiducia in certe altre proposizioni, senza però specificare né quali debbano essere, né perché si debba avere fiducia in loro; 2) che non bisogna aggiungere troppe ipotesi ausiliarie, senza precisare che cosa significa «troppe», né quali siano le ipotesi ausiliarie «buone». Nessuno, o almeno nessuno che voglia essere considerato sano di mente, criticherebbe il modus tollens. Invece le critiche alla Griinbaum debbono essere tenute in seria considerazione: esse mostrano la debolezza metodologica del criterio di falsificazione dal momento che esso si basa in sostanza su un non ben definibile «istinto» che permetterebbe al ricercatore di avere fiducia in un insieme di proposizioni invece che in un altro, di aggiungere alcune ipotesi ausiliarie perché le «sente buone» e di arrestarsi a un dato momento. A questo punto, deve però essere completamente rivista l'originale riflessione di Popper sul valore metodologico dell'osservazione fatta da Eddington in rapporto 15
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
alla gravitazione relativistica. Infatti, non è più possibile analizzare semplicemente la struttura logica della teoria einsteiniana e dire: «La relatività generale è scientifica perché è falsificabile. » E neppure è possibile analizzare semplicemente la struttura logica delle teorie di Adler, Freud e Marx e dire: «Le teorie di Adler, Freud e Marx non sono scientifiche perché non sono falsificabili. » La falsificabilità è una questione metodologica e non logica, benché si fondi sul modus tollens. Questo significa che non ha a che fare tanto con la teoria in questione, astratta dal resto del mondo, quanto con le azioni metodologiche di certi agenti (i ricercatori). Sono infatti questi che decidono di avere fiducia in un certo insieme di proposizioni e sfiducia in altre; e sono sempre questi che decidono fino a che punto vale la pena di introdurre ipotesi ausiliarie e quali considerare «buone». Ciò che è scientifico non è più la teoria in esame, ma il comportamento, o l'atteggiamento, di colui che l'analizza. Di questo sembra avvedersi anche Popper quando, nella Logica, scrive: «Ammetto che il mio criterio di falsificazione non conduce a una classificazione priva di ambiguità. In realtà, è impossibile, analizzandone la forma logica, decidere se un sistema di osservazioni sia un sistema convenzionale di definizioni implicite inconfutabili, o se sia un sistema empirico nel senso da me stabilito, cioè un sistema confutabile. Questo, tuttavia, riesce a dimostrare che il mio criterio di demarcazione non può essere applicato immediatamente a un sistema di osservazione [. .. ] La questione, se un dato sistema debba essere considerato come tale, convenzionale o empirico, è perciò una questione mal formulata. Soltanto facendo riferimento al metodo applicato a un sistema di teorie è possibile chiedersi se si stia trattando con una teoria convenzionalisti ca o con una teoria empirica. » 12 In realtà Popper oscilla sempre fra una posizione logicista, secondo cui «il criterio dello stato scientifico di una teoria è la sua falsificabilità, confutabilità, controllabilità», 13 e una posizione metodologica in accordo alla quale «sentivo che era questo [quello di Einstein] il vero atteggiamento scientifico. Era completamente differente dall'atteggiamento dogmatico [... ] ». 14 Qual è il vero Popper? Il logico o il metodologo? Se si accetta la versione logica del criterio, si ha uno strumento che è assolutamente impotente ad assolvere i compiti ai quali è chiamato. Se se ne accetta la versione metodologica, allora esso diventa abbastanza vago e, soprattutto, perde di significato la differenza sostanziale che Popper vuole tracciare tra teorie scientifiche e teorie non scientifiche. Infatti, se ciò che è scientifico non è la teoria ma l' atteggiamento, è possibile affrontare con un atteggiamento scientifico le teorie di Freud, Adler e Marx, e con un atteggiamento non scientifico quella di Einstein. Ma allora, dove va a finire il criterio di demarcazione fra scienza e non scienza?
13 Popper, 19693 , trad. it., p. 67. 14 Popper, 1976, trad. it., p. 41.
12 Popper, 1959, trad. it., pp. 70-71; si veda anche Popper, 1969 3, trad. it., p. 436.
r6
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
2) La teoria della verisimiglianza 15
Passiamo al secondo cardine logico della concezione popperiana, quello della verisimiglianza. Se l'origine della teoria della falsificazione può essere individuata nelle riflessioni popperiane del 1919, quella della teoria della verisimiglianza è databile in tempi assai più recenti. Infatti una sua prima formulazione appare solo agli inizi degli anni sessanta, come si evince già dalla prima edizione del 1963 di Congetture e confutazioni. Per una decina d'anni essa è stata considerata una buona soluzione al problema della comprensione della nozione di «teoria più vicina alla verità». Ma nel 1974, nella sezione dedicata alle discussioni di «The British Journal for the Philosophy of Science », comparivano quattro interventi critici, di cui i primi tre contenevano praticamente la sua demolizione. 16 Si dovette aspettare circa dodici anni per capire che la teoria della verisimiglianza non funzionava: ciò che infatti fece maggiormente riflettere i critici di Popper non fu l'originaria versione degli anni sessanta, ma quella del 1972, contenuta in Conoscenza oggettiva. 17 A proposito di questo lavoro, è interessante sottolineare alcune righe assai curiose, aggiunte nell'edizione inglese del 1974 alla nota n. 20 del secondo capitolo. In questa nota, Popper, parlando della sua teoria della verisimiglianza, racconta di come essa avesse tratto giovamento dalla semplificazione dovuta a D. Miller (Popper non si riferisce qui all'articolo di Miller del 1974, ma a un intervento precedente in cui questi aveva discusso e semplificato la prima versione della teoria). Subito dopo Popper aggiunge: «È stato ora dimostrato che anche il contenuto di falsità aumenta con il contenuto; si vedano le quattro note della discussione di Pavel Tichy, John H. Harris, e David Miller in "B.J.P.S.", 25, 1974, pp. 155188. » In realtà le parole di Popper suonano un po' eufemistiche, in quanto le critiche dei tre studiosi erano veramente conclusive. Bisogna tuttavia avere chiaro che, sebbene la teoria popperiana della verisimiglianza sia errata, essa è estremamente importante perché, come evidenzia Miller (1974a), Popper ha scoperto un problema filosofico che fino ad allora si ignorava, ossia quello di capire quale fra due teorie scientifiche false è più vicina al vero. Inoltre, Popper ha aperto un programma di ricerca che tuttora vede impegnati studiosi di tutto il mondo. Infatti, una volta accortisi che la teoria popperiana non funzionava, molti si sono messi a lavorare per cercare una buona soluzione alternativa.
con ciò che è più probabile. Potrebbe quindi nascere qualche confusione, soprattutto per il fatto che spesso si usa come sinonimo di «probabile» proprio il termine « verisimile ». 16 Si vedano Tichy, 1974; Harris, 1974; Miller, 1974a e 1974b. Anche Griinbaum, 1976c vette sulla teoria della verisimiglianza di Popper e offre una dimostrazione della sua inconsistenza. 17 Si veda Popper, 1972, trad. it., cap. 2, parr. 6-10 e cap. 9·
15 I termini inglesi usati sono « verisimilitude » - soprattutto - e « truthlikeness » - ìn misura minore -. In Italia, li si è tradotti talvolta con « verisimiglianza », altre volte con « verisimilitudine». Userò il primo per conformarmi alla maggior parte delle traduzioni. Questa specificazione non è dovuta a pignoleria, quanto al fatto che, come mette sull'awiso Popper stesso (Popper, 1969', trad. it., pp. 405-407 ), l' awicinarsi alla verità indicato dalla verisimiglianza non ha nulla a che fare
17
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
Molto probabilmente Popper è approdato alla sua teoria della verisimiglianza a partire da una riflessione sulla teoria della verità di A. Tarski. Il grande merito del logico polacco, secondo Popper, è di aver riabilitato la possibilità di parlare di verità all'interno della scienza grazie a una valida formalizzazione della nozione intuitiva di verità come corrispondenza ai fatti. Questa teoria, per Popper, è particolarmente «buona» in quanto non è soggettiva, o epistemica, ma oggettiva e metalogica. In altri termini, non è una teoria della verità in cui questo concetto è legato a una particolare conoscenza, o stato mentale, o credenza, o disposizione del soggetto conoscente, bensì è una teoria in cui la verità viene definita indipendentemente da particolari posizioni soggettivistiche. D'altro canto, se la verità dipendesse da un particolare stato del soggetto, vi sarebbe la possibilità di definire un criterio rispetto al quale stabilire se tale stato porta a conoscenza vera. Ne consegue che i teorici soggettivisti della verità sono alla ricerca di criteri di verità. Al contrario, per gli oggettivisti, fra cui vanno annoverati anche Tarski e Popper, essendo la verità indipendente da particolari stati soggettivi, non vi è alcuna ricerca di criteri per decidere se una data proposizione sia vera. Grazie al lavoro di Tarski possediamo una buona definizione di verità e non un criterio: sappiamo che cosa è vero, ma non sappiamo distinguerlo dal falso e, di conseguenza, possiamo incontrare una teoria vera senza accorgerci che è tale. Un approccio di questo tipo è del tutto confacente alla metodologia poppetiana. Infatti, in questa prospettiva, la verità diventa un ideale regolativo: sappiamo che c'è, ma non sappiamo riconoscerla. Lo sviluppo della storia della scienza diventa un grande sforzo per tendere alla verità, sforzo che però non cesserà mai dal momento che non sappiamo riconoscere una teoria vera anche qualora l'avessimo raggiunta. Perciò il compito della scienza diventa quello di tendere alla verità, ovviamente a verità interessanti. Infatti, commenta Popper, non ce ne facciamo assolutamente nulla di verità banali, piuttosto cerchiamo verità per problemi profondi. A questo proposito, sia in Congetture e confutazioni, sia in Conoscenza oggettiva, cita una breve poesia di W Busch Due e due fanno quattro: è vero, ma troppo insulso, e troppo banale. Quel che cerco è un sentiero per questioni non così chiare. 18 Tendere alla verità significa avvicinarsi. Oltre alla nozione di verità è perc10 necessaria anche una nozione di avvicinamento alla verità, che renda conto del fatto che tra due teorie scientifiche una è più vicina alla verità dell'altra. Si devono allora
18 Popper, 19693 , trad. it., p. 394·
18
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
cercare sia una teoria che abbia le stesse caratteristiche della teoria della verità di Tarski, che sia cioè oggettivistica, e non epistemica, sia la traduzione formale dell'idea intuitiva correlata. Il fatto che la teoria della verisimiglianza debba essere oggettivistica comporta che si cerchi una definizione di verisimiglianza, ma non un criterio, che permetterebbe di dirimere praticamente i casi storici. Scrive Popper «Dobbiamo di nuovo distinguere fra l'interrogativo: "Cosa si intende dire quando si afferma che la teoria t 1 ha un grado di verisimiglianza maggiore della teoria t/", e l'altro: "Come si sa che la teoria t 1 ha un grado di verisimiglianza maggiore della teoria t 1?". Per ora abbiamo risposto soltanto alla prima di queste domande [Popper, a questo punto del saggio, ha già esposto la sua teoria]. La risposta alla seconda dipende da questa, ed è del tutto simile alla seguente questione (di carattere assoluto piuttosto che relativo) circa la verità: "Io non so - avanzo solo delle congetture. Ma posso esaminarle criticamente e, se resistono a una severa critica, ciò può considerarsi una valida ragione critica a loro favore". » 19 Dunque, solo congetturalmente è possibile decidere quale, fra due teorie, è più verisimile. D'altronde, la teoria popperiana non vuole fornire un criterio formale applicabile nei casi pratici, bensì vuole essere un tentativo di esplicitare in modo chiaro che cosa voglia dire la nozione intuitiva di progresso scientifico verso la verità, intesa tarskianamente. La verità, secondo una metafora popperiana, è la vetta avvolta nella nebbia di una montagna. L'alpinista sa che c'è, ma non la vede. Salendo lungo la montagna, egli tent~ di avvicinarsi e può anche raggiungerla, senza però accorgersene in quanto, a causa della nebbia, non distingue la vetta vera e propria da un picco secondario. Può mettere in dubbio di essere arrivato alla vetta vera e può ripartire alla sua ricerca. E così indefinitamente. La teoria popperiana che esplicita l'idea intuitiva di avvicinamento alla verità è formulata nei termini seguenti. Se T è una teoria vera, il suo contenuto logico, in senso tarskiano, ossia l'insieme delle proposizioni che da essa discendono, è formato da proposizioni vere, perché dal vero segue il vero. Ma se T è falsa, il suo contenuto logico è costituito da proposizioni vere e da proposizioni false, perché dal falso segue sia il vero che il falso. Per esempio, dalla teoria falsa «Tutti i martedì mangio fagioli» seguono sia proposizioni vere come «Martedì scorso ho mangiato fagioli» perché effettivamente martedi scorso ho mangiato fagioli, sia proposizioni false come «Il primo martedì del 1995 ho mangiato fagioli» in quanto quel giorno non ho mangiato fagioli. Allora sia nel caso in cui T sia vera sia nel caso in cui T sia falsa, il suo contenuto logico contiene sempre proposizioni vere. Addirittura ha tutte proposizioni vere se la teoria è vera. In altri termini, se T è vera il suo contenuto logico (CL) è identico al suo contenuto di verità (CV), dove con con-
19
lvi, p. 402.
19
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
tenuto di verità intendiamo l'insieme delle proposizioni vere che discendono da T. In questo caso: CL=CV. Nel caso invece che T sia falsa, CL~CV. Prendiamo adesso due teorie, T e T'. Sia F l'insieme delle proposizioni false e V l'insieme delle proposizioni vere. Allora definiamo: a. il contenuto di verità di T, il CV(D, come CV(D=CL(D n V. Analogamente, si definisce il CV(T'). b. il contenuto di falsità di T, il CF( D, come CF(D=CL(D n F. Analogamente, si definisce il CF(T'). Assumiamo ancora che i due contenuti di verità e di falsità di T e T' siano, rispettivamente, paragonabili, ossia che uno di loro sia un sottoinsieme proprio dell'altro (questa è un'ipotesi forte, ma fondamentale per la teoria). A questo punto possiamo fornire la teoria della verisimiglianza. A dire il vero Popper ne fornisce addirittura due, che Miller chiama teoria qualitativa e teoria quantitativa, e che invece Tichy chiama, rispettivamente, teoria logica e teoria probabilistica. Vediamo quali sono giovandoci dell'esposizione contenuta in Conoscenza oggettiva. Teoria qualitativa. T' è più verisimile di T se e solo se si dà uno dei seguenti due casi I. Il contenuto di verità di T', ma non quello di falsità, supera quello di T. Ossia, CV(D c CV(T') e CF(T') ç CF(D. 2. Il contenuto di falsità di T, ma non quello di verità, supera quello di T'. Ossia, CF( T') c CF( D e CV( D ç CV( T'). In questo modo si è esplicitato in maniera formalmente esatta ciò che si intende intuitivamente quando si dice che una teoria, per esempio quella della gravitazione di Einstein, è più verisimile di una teoria precedente, ad esempio di quella della gravitazione di Newton. In tal caso, la teoria di Newton ammetterà soluzioni a problemi che la teoria di Einstein risolve almeno con la stessa precisione; inoltre, problemi non risolti dalla teoria di Newton saranno invece risolti dalla teoria di Einstein. Intuitivamente diciamo allora che il contenuto di verità della teoria di Einstein è maggiore del contenuto di verità della teoria di Newton. Popper afferma, ed è questa la sua scoperta, che una proposizione falsa può essere più vicina alla verità di un'altra proposizione falsa. O, meglio, questo è possibile asserirlo quando le due proposizioni false ammettono conseguenze confrontabili. Prendiamo due proposizioni chiaramente confrontabili: A = «Siamo fra le 21.40 e le 21.48 » e B = «Siamo fra le 21.45 e le 21.48 ». Se ora sono le 21.48, possiamo dire, intuitivamente, che B è più vicina alla verità di A. Possono darsi due casi. Nel primo, il «fra» contenuto nelle due proposizioni è inteso come includente gli estremi; nel secondo, come escludente gli estremi. Nel primo caso, abbiamo due proposizioni vere, tali che B ha un contenuto di verità maggiore di A. Nel secondo caso sono entrambe false, ma B ha sempre un contenuto di verità maggiore di A. 20
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
Dunque, in entrambe le situazioni, la proposizione B è più verisimile della proposizione A. 20 Teoria quantitativa. Popper fornisce due versioni della teoria quantitativa, una più intuitiva e una più tecnica, ma entrambe basate sul fatto che il contenuto di verità di una teoria è maggiore quanto minore è la sua probabilitàY Popper parte dall'idea che il contenuto di verità e il contenuto di falsità di una teoria possano essere misurati in virtù del legame fra contenuto di verità e probabilità. Se il contenuto di verità è maggiore quanto minore è la probabilità logica della teoria, allora possiamo definire la misura del contenuto di verità come M(CV(D)=l-p(CV(D), dove p(CV(D) è la probabilità di tale contenuto di verità e l indica la certezza. Analogamente, possiamo definire la misura del contenuto di falsità di T, ossia M(CF(D). Una volta definita la misura del contenuto di verità e di falsità, allora è possibile definire la verisimiglianza di una teoria come la differenza fra la misura dei rispettivi contenuti di verità e di falsità, ossia Vs(D=M(CV(D)- M(CF(D). In tal caso, la verisimiglianza di una teoria cresce se r. cresce il CV(D e rimane inalterato il CF(D; 2. diminuisce il CF(D e rimane inalterato il CV(D. In questo modo la nozione di «avvicinamento alla verità» sembrerebbe essere stata finalmente catturata in modo formale da una teoria oggettivistica. In realtà così non è, come hanno dimostrato Tichy, Harris e Miller. Più specificamente, Tichy mostra come le due versioni siano entrambe affette da errori; Harris analizza solo la versione qualitativa concordando con i risultati raggiunti da Tichy e generalizzandoli; Miller invece arriva alla stessa critica di Tichy sulla versione qualitativa, ma non accetta la critica alla versione quantitativa pur ritenendola ugualmente non valida. Per capire l'errore in cui è incorso Popper, si può fare riferimento alla critica di Tichy alla versione qualitativa, data la sua estrema semplicità e chiarezza. Tichy inizia considerando T e T' false, e quindi come tali dotate di contenuto di verità e di falsità. Allora I'. Contro il caso (r) di Popper. Se T' è falsa, allora esiste almeno una proposizione falsa f E CF(T'). Inoltre esiste almeno una proposizione v che appartiene al contenuto di verità di T', ma non al contenuto di verità di T. Questo è possibile perché, per la I di Popper, CV( D c CV( T'), ovvero v E CV( T')- CV( D. Allora (/A v) E CF( T'), perché la congiunzione di vero con falso dà falso. Però(/" v) q: CF( D, altrimenti v apparterrebbe a CV(D, cosa che non può essere data la scelta di v. Ne segue che non è vero che CF(T') è un sottoinsieme proprio CF(D. Ossia CF( T')~ CF( D, contro quanto asserito da Popper.
20 Popper, 1972, trad. it., p. 83.
21 Si veda Popper, 1969', trad. it., pp. 103-104.
21
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo? 2'. Contro il caso (2) di Popper. Se T' è falsa, allora esiste almeno una proposizione falsa /E CF(T'). Inoltre, se CF(T') c CF(D, allora esiste almeno una proposizione falsa g che appartiene a CF( D- CF( T'). In tal caso, (j--+ g) è vera, per la tabella di verità dell'implicazione secondo cui se l'antecedente e il conseguente sono falsi l'implicazione è vera. Allora (/--+g) E CV(D, e é CV(T') per lo stesso motivo visto nel caso precedente. Ne segue che il contenuto di verità di T non è un sottoinsieme proprio del contenuto di verità di T'. Ossia CV(D et. CV(T'), contro quanto asserito da Popper. In questo modo si è dimostrato che la teoria della verisimiglianza di Popper non regge. Questo non significa affatto che non sia possibile avere una teoria della verisimiglianza soddisfacente, quanto che non vale quella proposta dal filosofo austriaco. Rimane comunque il fatto che, pur fornendo una soluzione insoddisfacente, Popper ha scoperto un problema filosofico nuovo e ha così aperto un programma di ricerca logico che ancora oggi continua. 22
III
· I
RAPPORTI
FRA
SCIENZA
E
NON
SCIENZA
I) Il criterio di falsificazione e la metafisica influente
Se a stimolare inizialmente la riflessione popperiana sfociata nel criterio di falsificazione fu il tentativo di afferrare le differenze sussistenti fra una teoria scientifica, nella fattispecie la gravitazione relativistica, e le teorie non scientifiche, nella fattispecie la psicoanalisi e il marxismo, è facile intuire che il problema della caratterizzazione della scienza, e quindi della sua demarcazione da altri ambiti, è fondamentale per il filosofo austriaco, come d'altronde si legge chiaramente nella lettera del 1933 che Popper inviò alla rivista « Erkenntnis ».23 Che il criterio di falsificazione sia un criterio di demarcazione, non comporta affatto, come è noto, che sia un criterio di significanza cognitiva come lo era il criterio di verificazione neopositivista. Se quest'ultimo mirava a separare ciò che era significante cognitivamente gli asserti riducibili a osservazioni empiriche e quindi la scienza empirica - da ciò che non lo era, il criterio popperiano punta invece a individuare due domini diversi, dotati di differenti regole di critica, ma egualmente significativi. È perciò naturale che, da questo punto di vista, ciò che non è scienza, e che troppo sbrigativamente si è chiamato metafisica, acquisti subito un ruolo diverso. Non è più ciò che deve essere espunto o trascurato, quanto un insieme di teorie dotate di valore conoscitivo che permettono di affrontare temi che la scienza non consente di accostare. Nasce allora, all'interno della filosofia popperiana, un rinnovato interesse per ciò che non è scienza, ma che può generare scienza. Si assiste 23 La lettera è pubblicata nell'Appendice di Popper, 1959, trad. it., pp. 344-351.
22 Per una rassegna dei Hloni di ricerca contemporanei nella verisimiglianza, vedi Kuipers, 1987.
22
www.scribd.com/Baruhk
*1
Filosofia della scienza: la chiusura di un ciclo?
alla fioritura di studi storico-teorici, firmati sia da autori strettamente popperiani sia da post-popperiani (J.W.N. Watkins, J. Agassi, W.W. Bartley m, I. Lakatos, P.K. Feyerabend, T.H. Kuhn, L. Laudan), che mettono in luce quanto le idee metafisiche abbiano influenzato la scienza, ossia il ruolo di ciò che comunemente viene indicato come metafisica influente, e che, a seconda dell'autore, viene chiamato programma di ricerca metafisica, paradigma, tradizione di ricerca. 24 In varia misura, tutti questi autori, con l'eccezione di Kuhn, che in effetti appartiene a un'altra tradizione di ricerca pur venendo usualmente indicato come postpopperiano, derivano il loro interesse per le idee metafisiche che influenzano la scienza da quella sorta di sovvertimento interpretativo, operato da Popper con il suo criterio di falsificazione, del disconoscimento neopositivista di ciò che non poteva essere ridotto a osservazione empirica. Tuttavia, se ciò che è centrale è il ruolo giocato dal criterio di falsificazione, immediatamente, dopo le critiche viste, sorgono dei problemi. Demarcare significa separare, mettendo da un parte qualcosa e dall'altra qualcos'altro. Nel nostro caso, il criterio di falsificazione vuole mettere da una parte le proposizioni scientifiche e dall'altra le proposizioni non scientifiche. Tuttavia, tale modo di operare la classificazione comporta che, mentre il primo insieme è omogeneo, il secondo è del tutto eterogeneo: a esso appartengono proposizioni teologiche, astrologiche, etiche, estetiche, mitologiche, proposizioni riguardanti elfi, gnomi, la Santissima Trinità, Tristano e Isotta, i quadri di Egon Schiele, la cucina francese, il non-essere platonico, ecc. Insomma, decisamente troppe cose. È però sicuramente vero che sia i popperiani sia i post-popperiani non sono affatto interessati alle proposizioni riguardanti le differenze fra un cristiano cattolico e un cristiano ortodosso, o alle proposizioni riguardanti il mito di Sigfrido, quanto piuttosto alle proposizioni non scientifiche che possono stimolare la nascita di teorie scientifiche. Queste ultime sono solo una parte delle proposizioni non scientifiche, parte che il criterio di /alsz/icazione non riesce affatto a individuare. Di questa situazione si era reso conto Agassi (1975), che tentò di porvi rimedio distinguendo la metafisica, intesa nel senso di metafisica influente, dalla pseudoscienza sulla base del fatto che, da un lato, la prima può essere vista come un programma di ricerca e la seconda come un prodotto finito e che, dall'altro, la metafisica influente può degenerare in pseudoscienza mentre la pseudoscienza può trasformarsi in metafisica. Si tratta però di osservazioni del tutto qualitative che non permettono di capire molto. Inoltre, anche se Agassi fosse riuscito a differenziare la metafisica influente dalla pseudoscienza, non avrebbe affatto affrontato la questione che in ciò che non è scientifico, usando il criterio di Popper, non c'è solo pseudoscienza e metafisica influente, ma molto di più.
24 Per una rassegna delle varie posizioni, si veda Antiseri, 1982.
23
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
Tuttavia, Agassi centra perfettamente il bersaglio quando velatamente accusa Popper di avere un pregiudizio positivista nel considerare centrale la scienza, demarcandola precisamente, e nel «buttare» al di là tutto il resto. Usare il criterio di demarcazione popperiano significa in effetti usare un criterio «scienza-centrico». Metaforicamente, è come se un geografo che abita in una piccola isola facesse una carta del mondo mettendo al centro la sua isola e demarcandola perfettamente, e trascurasse tutto ciò che c'è al di là. Sicuramente in questo modo non avrebbe tolto ciò che è non-isola dal significante, ma avrebbe trascurato tutto ciò che di vario, interessante e tipico vi è al di là. Non basta scrivere al di là dell'isola Hic sunt leones! Insomma, il criterio di falsificazione permette di parlare dell'ambito non scientifico solo in maniera apofantica, una maniera che non sempre è soddisfacente per coloro che in tale ambito si muovono e che vorrebbero parlare catafaticamente anche quando trattano delle relazioni fra la loro disciplina e la scienza. Vi è un secondo e fondamentale problema connesso al criterio popperiano. Esso dovrebbe essere tale che, in base all'analisi della struttura logica di una teoria, si possa concludere intorno alla sua falsificabilità o non falsificabilità, e quindi alla sua scientificità o non scientificità. Questo non accade. Il criterio di falsificazione non è tanto un criterio logico, quanto un criterio metodologico, peraltro piuttosto vago, che stabilisce che cosa si può fare e che cosa non si può fare per essere considerati «bravi» scienziati. Ma un criterio di questo tipo non demarca a/fatto una teoria scientifica da una teoria non scientifica, caso mai demarca un comportamento scientifico da un comportamento non scientz/ico. E quindi non la scienza dalla metafisica, bensì, eventualmente, un atteggiamento scientifico da un «atteggiamento metafisica»! Rispetto a questo tema, vi è stato, e talora sussiste, un profondo fraintendimento della dottrina popperiana, peraltro avallato dallo stesso Popper. La demarcazione fra scienza e non scienza, seguendo le direttive popperiane, è una demarcazione che vorrebbe essere logica, mentre il criterio di falsificazione, pur basandosi su un elemento logico qual è il modus tollens, è un criterio metodologico, ossia un criterio inerente il comportamento, non inerente la struttura di una teoria. Mfermare che la scienza è controllabile empiricamente, mentre la teologia dogmatica non lo è, è sicuramente affermare qualcosa di vero, ma anche qualcosa di assolutamente risaputo da centinaia di anni e che ha molto poco a che fare con le pretese del criterio di falsificazione. 2) Le domande di confine e il senso del mondo
A questo punto, si dovrebbe essere consapevoli del fatto che il criterio di falsificazione popperiano non permette di demarcare in modo non ambiguo la scienza dal resto e soprattutto non permette di capire la ricchezza di questo resto. A questo proposito vanno sottolineati alcuni punti. Innanzi tutto, la metafisica popperianamente intesa è una metafisica diversa dalla metafisica classicamente intesa, essendo quel sottoinsieme di teorie non falsi24
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
ficabili che ha portato, o che può portare, a teorie falsificabili. Questo tema è stato affrontato anche da autori diversi da quelli appartenenti alla tradizione anglosassone, che non sono affatto partiti dal criterio di demarcazione popperiano. Basti pensare a storici come E.A. Burtt, A. Koyré, I.B. Cohen, M. Jammer, G. Holton o a filosofi come E. Meyerson, M. Polanyi, Th. Kuhn, K. Hiibner e altri. Questo significa che è possibile parlare dei rapporti fra idee scientifiche e idee non scientifiche che possono influire sulle idee scientifiche anche senza partire dal criterio popperiano. Parlare dei rapporti fra idee non scientifiche e idee scientifiche non significa affatto sostenere che fra le prime e le seconde vi sia un nesso causale ben preciso, né che vi sia un qualche processo inferenziale formalizzabile. Le idee non scientifiche non si tramutano in idee scientifiche attraverso una qualche «macchinetta logica» dove in input si mette la non scienza e in output si ottiene la scienza (Bellone, 1994). Le prime, invece, possono contribuire a formare una specie di contesto culturale che può psicologicamente stimolare la formulazione di idee scientifiche strutturalmente e/o funzionalmente analoghe a certe idee non scientifiche correlate. In secondo luogo, è possibile intendere i rapporti fra scienza e idee non scientifiche anche nel senso di considerare come queste ultime possano descrivere la natura in modo differente dalla scienza. È quindi possibile soffermarsi proprio su questo modo filosofico, e non scientifico, di parlare del mondo, ossia è anche possibile analizzare ciò che può essere considerato come filosofia della natura e che non ha nulla a che fare con la metafisica influente (Agazzi, 1995). All'interno delle teorie scientifiche si trovano proposizioni chiedersi «perché» delle quali comporta risalire alle loro condizioni, ossia a nuove proposizioni dalle quali poi le prime possono essere inferite. Ma si trovano anche proposizioni rispetto alle quali chiedersi «perché» comporta porre un «perché» diverso, che non ammette come risposta sicura e certa alcuna proposizione da cui poi inferire le prime. Si arriva così a proposizioni chiedersi «perché» delle quali comporta porsi delle «domande di confine», come le chiama S. Toulmin (n. 1922), dando però loro un'interpretazione leggermente diversa (Toulmin, 1953). Si tratta di domande che dividono ciò a cui si può rispondere in maniera certa da ciò a cui non si può rispondere se non con un «Così è». Sono domande dall'aspetto apparentemente familiare, essendo espresse in una forma sintatticamente semplice, ma sono domande profonde, forse le più profonde, in quanto coinvolgono il senso del mondo. Si possono allora chiamare proposizioni non scientifiche all'interno dell'ambito scientifico quelle proposizioni chiedersi «perché » delle quali è porsi una domanda di confine. Sono, infatti, proposizioni che danno un senso al mondo, proposizioni che, wittgensteinianamente, coinvolgono non un «come è il mondo», ma «che il mondo è» (Wittgenstein, 1921). Insomma, sono proposizioni che, pur parlando del mondo naturale, non sono affatto assimilabili alle proposizioni scientifiche, che possono essere messe a confronto con il mondo stesso, bensì sono proposizioni che 25
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
danno un senso ontologico al mondo di cui parlano (Barone, 1983). Sono proposizioni quali «n mondo è semplice», «Il mondo è complesso», «Il mondo è costituito da poche particelle elementari», «Il mondo è causale», «n mondo è acausale », e simili. A queste bisogna però aggiungere anche quelle proposizioni che danno un senso epistemologico alle teorie che parlano di tale mondo. Owero proposizioni del tipo: «Le teorie sono copie del mondo», «Le teorie sono solo strumenti», «La teoria migliore è quella che unifica ambiti prima separati». Usando una terminologia kantiana, tali proposizioni non scientifiche possono essere chiamate «i principi primi della conoscenza della natura», ossia ciò il cui insieme costituisce la «metafisica». In tal modo, seppur intuitivamente, vi è la possibilità di individuare le proposizioni non scientifiche all'interno dell'ambito scientifico senza ricorrere alla demarcazione falsificazionista. Così facendo non si è affatto «buttato al di là» di un criterio « scienzo-centrico » tutto ciò che non è scientifico, ma si è ugualmente individuato ciò che interessa il filosofo della scienza, ossia le proposizioni non scientifiche che hanno a che fare con quelle scientifiche. In altri termini, sono stati individuati sia i principi primi metafisici che, donando senso al mondo, costituiscono le condizioni incondizionate di una teoria scientifica e quindi anche le sue condizioni trascendentali, sia quei principi primi che donando senso alle proposizioni che di tale mondo parlano possono essere considerati come condizioni trascendentali epistemologiche. Ma qual è il loro statuto? Non essendo proposizioni scientifiche, non possono naturalmente avere lo statuto di tali proposizioni, ossia non possono essere delle ipotesi controllabili empiricamente, delle congetture sulla struttura del mondo naturale che gli esperimenti e le osservazioni possono contraddire. In realtà, sono credenze. Vi è una profonda differenza fra un'ipotesi e una credenza, anche se entrambe sono relative al mondo naturale. Le credenze non si possono mettere sotto i ferri della prova empirica, o, meglio, come si vedrà, non si possono mettere nello stesso modo in cui si possono e si devono mettere le ipotesi scientifiche. Ma soprattutto, le credenze sul mondo
naturale e sulle teorie hanno a che fare con il senso del mondo e delle teorie, mentre le ipotesi scientifiche hanno a che /are con il tentativo di conoscere tale mondo naturale per poter agire e vivere. 3) Le credenze
Si è visto nei paragrafi precedenti che è possibile identificare delle proposizioni - i principi primi della conoscenza della natura - chiedersi «perché» delle quali comporta porsi una domanda di confine. Tali proposizioni possono essere considerate come l'esplicitazione logico-linguistica di credenze. Questo significa che ogni teoria scientifica è inserita all'interno di un «baccello metafisico », costituito da proposizioni che forniscono senso sia al mondo che essa tenta di afferrare, sia a essa stessa. Per amore di classificazione potremmo chiamare le prime credenze antologiche, la cui esplicitazione logico-linguistica è data dai principi primi ontologici, le
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
seconde credenze epistemologiche, la cui esplicitazione logico-linguistica è data dai principi primi epistemologici. Le prime riguardano la natura e la struttura del mondo, le seconde la natura e la struttura delle teorie sul mondo. Ogni scienziato ha credenze antologiche e credenze epistemologiche e ogni teoria scientifica è inserita in un ambito contenente anche principi primi antologici e principi primi epistemologici. Si noti che chiunque affermi che quando fa scienza, o discute di scienza, non fa riferimento ad alcun principio primo antologico o epistemologico, in realtà ha almeno un principio primo epistemologico di stampo strumentalista. Ogni scienziato, sia in quanto tale, sia in quanto uomo, ha credenze. D'altronde è impossibile non avere la disposizione intellettuale verso una certa sistemazione del mondo, della vita, della storia, della divinità, e quindi non sostenere un qualche «Io credo che X sia Y» dal momento che solo in questo modo si abbraccia •X come Y donando a X il senso Y. Insomma le credenze non solo donano senso a ciò che si ha, a ciò che sta davanti, ma anche consentono di spingersi a cercare qualcosa che ancora non si ha, ma al quale donano preventivamente senso. Come hanno evidenziato i pragmatisti, avere una credenza molte volte comporta anche avere uno stimolo per cercare di raggiungere una certa meta. 25 A tal fine è utile una divisione proposta da I. Levi (1991) fra «impegno doxastico » e «azione doxastica ». L'impegno doxastico è legato alla credenza che si ha. Avere una credenza, sia essa antologica o epistemologica, significa infatti anche assumersi il correlato impegno antologico o epistemologico. Altra cosa è invece l'azione doxastica a cui tale impegno può dar luogo; ossia, altra cosa è tentare di realizzare quella credenza, che, nel caso scientifico, significa tentare di costruire una teoria avente certe caratteristiche in cui si crede, per afferrare un mondo strutturato nel modo in cui si crede. Si noti però che non è detto che a ogni credenza corrisponda necessariamente la correlata azione doxastica. È possibile avere la credenza che il mondo sia perfettamente deterministico, ma non fare nulla per costruire una teoria del mondo microscopico alternativa alla meccanica quantistica ortodossa. Certo, può anche verificarsi che l'azione doxastica sia correlata alla credenza corrispondente, e quindi all'impegno doxastico. È esattamente in questo caso che l'esplicitazione logico-linguistica della credenza, ossia il principio primo, diventa un principio primo di cui si può parlare in termini di metafisica influente. Insomma, ogni teoria scientifica, ossia ogni ipotesi scientifica, è racchiusa in un ambito contenente anche proposizioni non scientifiche, ossia principi primi metafisici che esplicitano le credenze relative. Può inoltre darsi il caso che si abbiano delle credenze antologiche ed epistemologiche così forti da spingere alla costruzione di
25 Si veda, per esempio, Peirce, 1903 e 1905.
27
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
teorie scientifiche fatte in un certo modo. In questo caso, possiamo parlare di metafisica influente. Tuttavia non vi è alcuna correlazione necessaria /ra la credenza e l'azione, come non vi è alcuna correlazione necessaria e formalizzabile fra credenza di un certo tipo e formulazione scientifica connessa. Se correlazione vi è, essa è alquanto vaga e mai formulabile in termini precisi. È piuttosto costituita da un bisogno psicologico a cercare nel mondo certe cose e a formalizzarle in un certo modo. Si era detto in precedenza che le ipotesi scientifiche sono caratterizzate dal fatto che possono essere controllate empiricamente, mentre per le credenze, ossia per i principi metafisici, la questione è più dubbia. È ora necessario ritornare su questo punto, ma prima di farlo è opportuno chiarire la differenza fra ragionamento deduttivo, tipico delle ipotesi scientifiche, e ragionamento argomentativo, tipico delle ere~~
!
4) Il ragionamento deduttivo e il ragionamento argomentativo
Negli ultimi anni, all'interno della comunità dei filosofi della scienza si è assistito a una rinascita di interesse verso la logica informale, ovvero verso il ragionamento argomentativo. Nella fattispecie, si è cercato di mostrare come tale forma di ragionamento abbia un ruolo di assoluta rilevanza nelle fasi di transizione da una teoria scientifica a un'altra. Da un lato, Kuhn ha evidenziato come il passaggio da un paradigma a un altro sia addirittura caratterizzato da tratti irrazionalistici, dall'altro, Feyerabend, nella sua feroce polemica contro le metodologie di Popper e di Lakatos, ha mostrato come nella disputa fra teorie rivali i sostenitori dell'una e dell' altra ricorrano a mezzi persuasivi che poco hanno a che fare con ciò che fino ad allora si pensava. Insomma - seppure in modo diverso - sia per Kuhn che per Feyerabend i periodi di dinamica scientifica non sono affatto contraddistinti dalla logica, ma da qualcosa di assai meno stringente, ossia dalla retorica. 26 D'altro canto, cominciare a sentir parlare di retorica nella scienza fu un duro colpo per chi - soprattutto pensatori di ascendenza neopositivistica, diretta o indiretta - riteneva che nel mondo della scienza vi fosse posto solo per il sillogismo in Barbara e l'esperimento. Questi pensatori già avevano storto il naso alle tesi dei post-popperiani, che accusavano di aver portato l'irrazionalità dentro il dibattito epistemologico; sentir anche parlare di retorica era veramente insopportabile. In realtà, la retorica non ha tecnicamente quell'accezione così negativa che l'uomo della strada usualmente le attribuisce, né è una prassi non-razionale. D'altro canto, la scienza non è nemmeno solo retorica, come invece alcuni sembrano affermare. Quello che era accaduto anni fa per la sociologia della conoscenza, si ripete oggi per la retorica. Allora c'era chi sosteneva che la scienza fosse materia analizzabile solamente in termini sociologici, forse perché conosceva unicamente la
26 Per il ruolo della retorica nella scienza, si vedano Finocchiaro, 1980 e Pera, 1991.
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
sociologia e non la scienza. D'altra parte, vi era chi avversava totalmente le analisi sociologiche proprio per esorcizzare tali posizioni, ma anche perché non aveva ben afferrato le novità di prospettiva consentite da un corretto approccio sociologico. Analogamente, oggi c'è chi sostiene che la scienza sia solo retorica, forse perché conosce esclusivamente la retorica e non la scienza; ma vi sono altri che negano che nell'ambito scientifico ci possa essere spazio per la retorica proprio per esorcizzare tale posizione, ma anche perché non hanno capito che cosa voglia dire un ragionamento retorico. In realtà, come l'approccio sociologico può essere utile per afferrare alcuni momenti della storia della scienza, analogamente «l'approccio retorico» può permettere di afferrare aspetti prima trascurati. Nella fattispecie, tale approccio si rivela assai utile, più che per affrontare certe questioni di dinamica scientifica, per capire quanto valgano e come possano essere giustificate quelle credenze non scientifiche di cui si è parlato. In tal modo costruiamo anche quegli attrezzi concettuali che poi, quando tratteremo della questione del realismo scientifico, ci saranno indispensabili per capire il reale statuto del dibattito. Nel 1958 furono pubblicati sulla retorica due lavori divenuti ben presto dei classici, quello di Perelman e Olbrechts-Tyteca e quello di Toulmin. Questi autori ebbero il merito di recuperare un sapere che, pur essendo nato con Aristotele, era stato piuttosto trascurato nella storia della filosofia. Bisogna infatti ricordare che per la tradizione dominante nella storia della filosofia occidentale, specie da Cartesio in poi, l'unica forma di razionalità accettata e accettabile era quella che funzionava secondo la logica classica, ossia una razionalità che si identificava totalmente con il ragionamento deduttivo. Tutto ciò che non era ragionamento deduttivo era considerato ragionamento non razionale, o tentativo irrazionalistico. Perelman e Olbrechts-Tyteca, da un lato, e Toulmin, dall'altro, mostrarono che le cose non stanno affatto così e per far questo ritornarono, chi esplicitamente chi implicitamente, ad Aristotele. Come è noto, Aristotele è il padre del ragionamento deduttivo, essendo stato colui che per primo formalizzò il sillogismo scientifico, ossia il ragionamento apodittico. Ma Aristotele è anche il padre del ragionamento non apodittico, ossia del ragionamento che non si avvale esclusivamente della logica deduttiva. Questo secondo tipo di ragionamento per Aristotele non è affatto un tentativo irrazionalistico di muovere da premesse a conclusioni, quanto un procedimento che esplicita una delle due forme della razionalità. Infatti, secondo Aristotele, la razionalità può essere apodittica o anapodittica, e quindi i ragionamenti che la esplicitano possono essere, rispettivamente, apodittici o anapodittici. Mfermare questo significa negare che la razionalità sia legata solo alla logica classica e quindi significa ampliare il suo ambito. La rinascita degli studi sulla teoria dell'argomentazione, ovvero sulla «nuova retorica», altro non è che un giusto e corretto recupero di questa forma di razionalità trascurata e disprezzata. 29
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
La sostanziale differenza fra ragionamento deduttivo e ragionamento argomentativo, o fra ragionamento apodittico e ragionamento anapodittico, è data dal fatto, come sottolinea Perelman (r98r), che il primo è svolto dentro un sistema chiuso, dove sono accettate le premesse e le regole di inferenza, per cui è inevitabile accettare anche le conclusioni; invece il secondo è svolto in un sistema aperto, dove sia le premesse che le inferenze possono essere discusse e dove è quindi inevitabile che le conclusioni possano non essere accettate da tutti. In definitiva, nel caso del ragionamento deduttivo, le inferenze date dalla logica classica sono accettatte senza discussione; ciò comporta che, una volta accettate le premesse, sia impossibile non accettare le conclusioni. Invece, nel caso del ragionamento argomentativo, le inferenze possono avere più forme - non escluse alcune contenenti elementi di ragionamento deduttivo -, e possono sempre essere discusse, esattamente come possono essere sempre discusse le premesse, per cui anche le conclusioni lo saranno. Questo significa che un ragionamento deduttivo porta a conclusioni certe, definite e non discutibili (a meno che non si voglia discutere l'intero impianto del ragionamento deduttivo stesso), mentre le conclusioni del ragionamento argomentativo non sono mai certe, mai definitive e sono sempre discutibili (anche senza mettere in discussione l'intero ragionamento argomentativo). Questa differenza è esattamente quella che già Aristotele aveva delineato. Tuttavia, secondo lo Stagirita, non vi è un'unica forma di razionalità anapodittica, bensì molte, fra cui quella dialettica e quella retorica. La dialettica, discussa soprattutto nei Topici e nelle Confutazioni so/istiche, è una forma di argomentazione razionale anapodittica che si attua in un dialogo fra due contendenti, ognuno dei quali cerca di mostrare che la tesi dell'altro è in contraddizione con quanto comunemente accettato. Invece, la retorica, trattata soprattutto nel testo omonimo, ha a che fare con quella forma di razionalità non apodittica con cui un oratore, il retore, partendo da certe premesse e seguendo un certo iter argomentativo, arriva a certe conclusioni sulla bontà delle quali vorrebbe convincere l'uditorio. 27 Aristotele sottolinea che, sia nel caso della razionalità dialettica che nel caso della razionalità retorica, qualcuno può barare, ossia può tentare di inserire dei passaggi argomentativi fallaci con i quali, imbrogliandolo, tenta di ottenere la vittoria sull' avversario. Questa forma di dialettica «cattiva» altro non è che l'eristica, o la sofistica (in realtà per Aristotele vi è una differenza fra le due). Analogamente, anche il retore può tentare di convincere l'uditorio in modo scorretto, usando paralogismi, oppure ricorrendo a imbellettamenti linguistici o ad argomenti vuoti rivolti più a suscitare emozioni che non a far riflettere. Quindi anche in questo caso vi può ess~re un'argomentazione «cattiva», che però Aristotele continua a chiamare retorica. Malauguratamente proprio questa accezione negativa è poi passata attraverso i secoli. Parlare
27 Per un approfondimento di questi temi si rinvia a Berti, 1989.
30
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
di retorica, infatti, equivale per molti a parlare di tentativi perpetrati da imbonitori che, grazie alla loro abilità linguistica, riescono a carpire la buona fede di chi li ascolta. Si noti, fra l'altro, che questa accezione negativa del termine «retorica» è dovuta anche a Platone, il quale nel Gorgia mette alla berlina proprio questo tipo di retore imbonitore, contribuendo così a creare il pregiudizio negativo che né Platone stesso nel Fedro, né Aristotele nella Retorica, sono riusciti a dissolvere. Sintetizzando quanto detto con un passo della Critica del giudizio di I. Kant, mentre il ragionamento deduttivo convince de/z"nitivamente, il ragionamento argomentativo corretto persuade in maniera non definitiva e non conclusiva, il ragionamento argomentativo scorretto suggestiona solo. 28 Nell'ambito della filosofia della scienza interessano solo i primi due tipi di ragionamento, anche se nella dinamica scientifica molte volte si è ricorso ad argomenti del terzo tipo, come ha mostrato A. Kohn (r986) esaminando casi in cui scienziati più o meno famosi sono ricorsi ad argomentazioni scorrette per tentare di mostrare la validità della loro tesi. Fra le varie funzioni del ragionamento, sia esso apodittico sia esso anapodittico, la più importante, relativamente a questo ambito di discorso, è quella della giustificazione. Giustificare una proposizione in ambito di ragionamento apodittico significa dimostrare conclusivamente la sua validità. Questo è un tratto tipico di ciò che accade dentro le teorie scientifiche, dove una proposizione è considerata teoricamente valida se si riesce a dimostrarla, ovvero se si riesce a dimostrare che è deducibile da proposizioni accettate. Per esempio, in matematica si dimostra, ovvero si giustifica apoditticamente, che la derivata di una funzione si annulla in un punto interno a un intervallo chiuso usando le inferenze della logica classica e partendo dalle premesse secondo cui la funzione deve essere reale, a variabile reale, definita, continua e derivabile in tale intervallo e tale da avere lo stesso valore ai suoi estremi (teorema di Rolle). Oppure, in fisica si dimostra che il moto di un punto massa è contenuto in un piano usando la logica classica e partendo da una premessa affermante che la sua quantità di moto è costante. Al contrario, giustificare anapoditticamente, o argomentativamente, una proposizione significa argomentare in suo favore portando delle buone ragioni, senza però mai poter arrivare a dimostrare la sua conclusività, o la sua incontrovertibile validità. Tale procedere è tipico dell'ambito delle credenze. Ecco allora che mentre una proposizione scientifica può essere teoricamente dimostrata, una credenza non scientifica può solo essere argomentata. Sia le credenze antologiche sulla natura e sulla struttura del mondo in sé, sia le credenze epistemologiche sulla natura e sulla struttura delle teorie scientifiche non possono mai essere dimostrate conclusivamente ma possono solo essere oggetto di argomentazione. Chiunque tenti di dimostrarle incorre certamente in fallacie che, se commesse in buona fede, sono paralogismi, ma se fatte
28 Kant, 1790, trad. it., par. 90.
31
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
in cattiva fede trasformano l'argomentazione in un vero e proprio tentativo di suggestionare l'uditorio. Vale la pena sottolineare che non tutte le proposizioni scientifiche sono sullo stesso livello per quanto riguarda la possibilità della loro giustificazione dimostrativa. Vi sono infatti alcune proposizioni scientifiche, che potremmo chiamare ipotesi originarie, che non possono essere affatto dimostrate, ma che si assumono ipoteticamente. Ad esempio, la legge di gravitazione universale di Newton è una di queste. Questa ipotesi originaria non può essere dimostrata ricorrendo a una proposizione logicamente superiore, ma d'altro canto, non è nemmeno una credenza non scientifica. Si ricordi infatti che, mentre un'ipotesi può essere empiricamente controllata - e la legge di gravitazione universale lo può essere - questo non avviene per una credenza. D'altronde, l'Hypotheses non fingo di Newton può essere letto proprio in questo modo: non nel senso che Newton non facesse ipotesi, quanto che ·non ne facesse per giustificare dimostrativamente la legge di gravitazione; quest'ultima era l'ipotesi originaria, di sicuro controllabile empiricamente, ma non certo considerabile come esito definitivo e certo di una giustificazione deduttiva. Il fatto che alcune proposizioni scientifiche non siano dimostrabili appare subito chiaro non appena si assiomatizza una qualunque teoria scientifica. In tal caso si ottiene la teoria a partire da certe proposizioni considerate come principi, i quali non sono affatto dimostrati o dimostrabili derivandoli deduttivamente da proposizioni logicamente superiori, ma solo assunti. Dunque, se una generica proposizione scientifica può, da un lato, essere controllata empiricamente e, dall'altro, essere dimostrata a partire dai principi scientifici della teoria di cui fa parte, questi principi primi scientifici - le ipotesi originarie - possono solo essere controllati empiricamente. Invece, le eventuali credenze non scientifiche, che completano l'ambito in cui quella teoria scientifica si situa, possono solo essere argomentate. Inoltre, visto che il ragionamento deduttivo trasferisce lo statuto epistemologico delle premesse alle conclusioni, una generica proposizione scientifica sarà ipotetica in quanto discende deduttivamente da principi ipotetici, ossia da ipotesi originarie. Viceversa, il controllo empirico di una generica proposizione è automaticamente, via modus tollens, anche il controllo empirico delle ipotesi originarie. Non si tratta di recuperare il falsificazionismo popperiano, ma solo di affermare un criterio metodologicamente meno prescrittivo. Prima di mettere a fuoco questo ultimo aspetto della questione, è il caso di evidenziare che se è vero che i principi primi scientifici, ossia le ipotesi originarie, pur potendo essere empiricamente controllati, non possono essere dimostrati, possono però sempre essere argomentati, come d'altronde qualunque altra proposizione. /}argomentazione è sempre possibile. A questo proposito è necessario ricordare una questione estremamente importante: come si giustifica la giustificazione dimostrativa? Se i principi della logica classica - quello di contraddizione e qudlo dd terzo escluso - potessero essere dimostrati, ciò significherebbe che si entra in un circolo vizioso 32
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
(in un circulus in probando), oppure che si sono trovati altri principi da cui dedurre questi, che in tal caso non sarebbero più i principi primi. li problema però si ripresenterebbe in quanto dovremmo giustificare i nuovi principi logicamente superiori. Questo problema era già noto ad Aristotele, il quale, negli Analitici secondi, afferma chiaramente che i principi del ragionamento apodittico non possono essere giustificati apoditticamente, ossia tramite un ragionamento deduttivo. 29 Essi devono però essere giustificati, e a questo scopo Aristotele propone, nel Libro rv della Metafisica, una giustificazione argomentativa, ossia l'unica forma di giustificazione possibile per il ragionamento deduttivo nella sua totalità. L'argomento di Aristotele è così stringente da sembrare necessario, quando invece non può esserlo trattandosi di un'argomentazione. Aristotele infatti mostra che ogni tentativo di negare il principio del terzo escluso comporterebbe delle contraddizioni. Quindi il principio del terzo escluso può essere giustificato ricorrendo al principio di contraddizione. Ma come giustificare il principio di contraddizione? Qui Aristotele introduce ciò che si chiama argomento elenchico per il quale la negazione del principio di contraddizione comporta l'affermazione dello stesso principio di contraddizione: in altri termini, chiunque lo voglia negare si trova costretto ad affermarlo, dal momento che nell'istante stesso. in cui lo nega implicitamente lo afferma, perché per far accettare la negazione è costretto a ragionare non contraddittoriamente. D'altro canto, questa argomentazione a favore della validità della logica classica non è l'unica che si possa incontrare lungo la storia della filosofia occidentale. Si può, per esempio, ricordare quella di N. Goodman, la quale, a differenza della via aristotelica molto razionalistica, è di stampo pragmatico ma non per questo meno stringente. Infatti Goodman (1983), dopo aver sottolineato proprio che i principi del ragionamento deduttivo non possono essere giustificati deduttivamente, riflette sul fatto che noi li manteniamo perché sono in accordo con le regole dell'inferenza deduttiva. D'altro canto, queste sono a loro volta valide perché risultano in accordo con le inferenze deduttive che grazie a loro possiamo fare. Potrebbe sembrare che in tal modo Goodman abbia fornito un'argomentazione viziata da un circolo, ma così non è in quanto le regole e le inferenze si giustificano mutuamente: «Una regola viene emendata se produce un'inferenza che non siamo disposti ad accettare; un'inferenza viene respinta se viola una regola che non siamo disposti a emendare. »30 È quindi il gioco pragmatico fra reg~le e inferenze che fa sì che la deduzione possa essere giustificata argomentativamente. 5) Il ragionamento empirico
Trattando del ragionamento argomentativo, non si è sottolineato un aspetto estremamente importante ma spesso del tutto trascurato: come hanno insegnato i 29 Si veda, in particolare, Analitici Secondi,
30 Goodman, 1983, trad. it., p. 75·
I, 3·
33
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
greci e i latini, non tutti gli argomenti hanno la stessa importanza; vi sono infatti argomenti che hanno un certo peso e argomenti che ne hanno un altro, e non tenerne conto è un errore. 31 Naturalmente il peso di un'argomentazione dipende dal contesto in cui è formulata. Ad esempio, ha poco peso un argomento facente leva sulla pietà portato da una persona che sta per essere rapinata. Oppure un argomento che verte sulla situazione meteorologica per giustificare una strage. D'altro canto, un argomento basato su prove testimoniali ha un grosso peso in un'aula di tribunale. E si è visto il peso enorme che ha l'argomento elenchico aristotelico per giustificare il ragionamento deduttivo. Anche nella scienza vi è un argomento che, in situazioni non patologiche, ha sicuramente il peso maggiore: si tratta del ragionamento empirico, ossia il ragionamento che si basa sui risultati degli esperimenti e delle osservazioni. Come diceva Bridgman: «il /atto è sempre stato per il fisico l'argomento decisivo contro cui non vi è appello e di fronte al quale l'unico atteggiamento possibile è un'umiltà quasi religiosa ».32 Che lo si voglia o meno, che piaccia o meno, il risultato di un esperimento, in situazioni non patologiche, è il più forte argomento che si possa produrre a favore, o contro, una teoria scientifica. Va sottolineato il concetto di sitùazione non patologica, perché certamente nella storia della scienza - si pensi al caso T. Lisenko - vi sono state situazioni in cui il ragionamento empirico ha contato poco o nulla; si tratta comunque di situazioni particolari che far assurgere a regola comporta cadere in una fallacia storica. Può comunque stupire che il ragionamento empirico venga inserito fra le argomentazioni. Tuttavia, se si bada a quanto detto finora circa il ragionamento argomentativo come contraddistinto in base alla sua non definitività e alla discutibilità delle conclusioni a cui permette di arrivare, ci si rende conto che non si tratta di un'assimilazione poi tanto strana. Portare un risultato empirico contro, o a favore, di una teoria significa addurre un argomento che permette di arrivare a un giudizio di validità che non può mai essere definitivo o indiscutibile. È sufficiente, come precedentemente visto, introdurre ipotesi ausiliarie, oppure ricorrere all'argomento olistico, per mettere in discussione certe conclusioni sperimentali. A questo proposito, basta ricordare il modo in cui argomentano certi avversari dell'interpretazione ortodossa della meccanica quantistica contro gli esperimenti fatti da A. Aspect. 33 In estrema sintesi, questi esperimenti hanno fornito dei valori empirici che fanno concludere che è corretta l'interpretazione ortodossa della meccanica quantistica, mentre non lo è quella di A. Einstein. Taluni hanno obiettato che i risultati non sono confutanti perché sono stati ottenuti grazie a opportune ipotesi ausiliarie che hanno mascherato la vera natura delle cose. Insomma, una vera e propria disputa basata su argomentazioni e controargomentazioni. 31
Si veda, p~r esempio, Quintiliano, 9,
33 Si vedano Aspect, Grangier e Roger, 1982 e Aspect, Dalibard e Roger, 1982.
3, 100.
32 Bridgman, 1927, trad. it., p. 65.
34
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
Comunque sia, nella maggior parte dei casi, che sono casi del tutto non patologici, il ruolo dell'esperimento è pressoché definitivo, esattamente come è pressoché definitivo l'argomento elenchico di Aristotele per la logica classica. Bisogna ricordare che ci sono cose che non si discutono affatto, anche se, di principio, sarebbe possibile farlo. Così certi esiti sperimentali non si discutono affatto, anche se, in via di principio, potrebbero essere discussi. È comunque naturale che i risultati sperimentali più discussi siano proprio quelli che sono maggiormente importanti rispetto a certe teorie in gioco. Si discute il ruolo dell'esperimento di Michelson e Morley, ma non certo quello dell'esperimento fatto in un laboratorio per controllare se un apparato sperimentale è pronto per essere usato. Si discute il ruolo argomentativo dell'osservazione di Hubble, ma non certo quello di un esperimento di « backscattering » fatto per rilevare i costituenti di un certo materiale. Parlare in questi termini del ruolo del controllo empirico non significa affatto recuperare il falsificazionismo popperiano, quanto accettare un fatto incontrovertibile per chiunque si voglia occupare di scienza. Questo significa che il modus tollens non è affatto rifiutato, né potrebbe esserlo, ma è ripensato come elemento deduttivo all'interno del ragionamento empirico, ossia del ragionamento che ha maggior peso all'interno della dinamica scientifica. A conclusione di questa parte, è giusto sottolineare che si può argomentare anche a favore o contro una credenza ricorrendo al ragionamento empirico. È stato Agassi (1975) che ha sottolineato come in questo caso sia possibile fare un « experimentum crucis in debole». Siano C e C' due credenze incompatibili che hanno dato luogo, in seguito a un'azione doxastica, a due teorie scientifiche T e T', da cui è possibile derivare, rispettivamente, le conseguenze c e c'. In questo caso, un esperimento che permette di decidere fra c e c', e quindi fra T e T', può avere delle conseguenze anche per C e C'. Certamente qui, e con maggior forza, si ripresentano i problemi sollevati da Duhem contro gli esperimenti cruciali; d'altro canto, è naturale considerare che tali risultati sperimentali siano delle argomentazioni, alcune volte estremamente forti, contro una certa credenza, o a favore di un'altra. Però è anche ovvio che una credenza, specie ontologica, se è fortemente radicata, tanto da essere un dogma, non viene minimamente scalfita da nessun ragionamento. Comunque sia, in molti casi un argomento empirico potrebbe essere una buona ragione contro una certa credenza, e una buona ragione dovrebbe sempre essere considerata, anche se in realtà poche volte lo è. Anche se alcuni studiosi parlano quasi di conversione mistica a proposito del passaggio da una teoria scientifica vecchia a una nuova, se si esaminano in sede storica i veri motivi del passaggio si scoprono sempre delle buone ragioni. Per esempio, lo stesso maggior fautore di questa tesi, cioè il Kuhn de La struttura delle rivoluzioni scientifiche, quando ricostruisce storicamente il passaggio da una teoria a un'altra in realtà presenta delle buone ragioni. 34 Questa osser34 Come ha fatto, per esempio, quando ha discusso il passaggio da una visione tolemaica a una
visione copernicana del mondo; vedi Kuhn, 1957.
35
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
vazione porta a concludere che se, da un lato, è velleitario voler codificare a priori quali sono i motivi per cui si passa da una teoria scientifica a un'altra, come vorrebbe certa filosofia della scienza fortemente prescrittivistica, dall'altro, è risibile affermare che non vi sia alcun buon motivo. In realtà solo l'analisi storica permette di rintracciare i veri e particolari motivi per cui, in quella data epoca, quegli scienziati hanno abbandonato la vecchia teoria per la nuova. Le buone ragioni della dinamica scientifica possono essere individuate solo a posteriori daglz' storici della scienza e non a priori da /z'loso/i della scienza con zl «complesso del redentore ». 35 IV · LO SVILUPPO
DEL
CONCETTO
DI
SPIEGAZIONE
SCIENTIFICA
Nel paragrafo precedente, abbiamo visto come sia possibile identificare le proposizioni non scientifiche all'interno dell'ambito scientifico con quelle proposizioni chiedersi «perché» delle quali coinvolge una domanda di confine. Tuttavia, come d'altronde già accennato, non tutte le «domande-perché» sono domande di confine. Segnatamente, all'interno della scienza porre «domande-perché» è richiedere una spiegazione scientifica. Ed è su questo tema che ora fermeremo la nostra attenzione, cercando di fornire un resoconto essenziale del dibattito intorno a tale importante nodo epistemologico. La ricognizione prenderà le mosse dalle proposte di Hempel, il filosofo della scienza cui è profondamente debitore l'attuale discussione in questo campo. Si passerà poi a mostrare i problemi delle soluzioni hempeliane e i tentativi fatti per superarli. Nell'impossibilità di soffermarsi sulle innumerevoli proposte e controproposte, ci si limiterà a esaminare quei momenti del dibattito che appaiono particolarmente importanti non solo per quanto riguarda la spiegazione in senso stretto, ma anche per la forte interdipendenza con altri problemi, quali la struttura delle leggi di natura, il determinismo e l'indeterminismo del mondo, nonché la questione del realismo scientifico. In base a questa scelta, non verranno qui discussi approcci rilevanti come quelli avanzati negli ultimi decenni da P. Railton (1981) e P. Achinstein (1983) né ci si soffermerà sulla questione della natura ontica, modale o epistemica della spiegazione sollevata da W. Salmon (1982 e 1984). 36 Fra ciò che è impossibile trattare nei limiti di questo saggio meriterebbero attenzione le questioni della spiegazione funzionale e della spiegazione genetica, data l'importanza che hanno per discipline quali l'antropologia, la sociologia, l'archeologia. 37
35 Su questo aspetto si veda Baldini, 1986. 36 Un'estesa discussione storica della que-
1991; Zorzato, 1992; Ruben, 1993. Vanno segnalati
stione della spiegazione scientifica, a partire dall'opinione ricevuta (received view), può essere trovata in un eccellente lavoro dello stesso Salmon (Salmon, 1989-1990'). Alcuni degli articoli più rilevanti possono ormai essere facilmenti rintracciati in antologie, per esempio: Pitt, 1988; Boyd, Gasper, Trout,
1989 sulla spiegazione scientifica e sui suoi limiti (si veda Knowles, 1990). 37 Su questo tema si può consultare, oltre al classico Nagel, 1961 (capp. 2 e 3), l'antologia di Canfield, 1966 e i lavori di Wright, 1976 e di Bigelow e Pargetter, 1987.
anche gli atti di un convegno tenuto a Glasgow nel
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
I)
Il modello nomologico-deduttivo
Nel 1948, usciva un saggio firmato congiuntamente da C.G. Hempel e da P. Oppenheim, in cui i due autori esaminavano che cosa significasse spiegare scientificamente un fatto o una legge. Essi arrivavano così a formulare un modello di spiegazione, detto modello nomologico-deduttivo (da ora indicato con N-D) in quanto comporta la sussunzione deduttiva del fatto, o della legge, da spiegare sotto leggi di natura. Per quest'ultima caratteristica tale modello viene anche chiamato «modello a leggi di copertura» in quanto le leggi permettono di «coprire» la spiegazione. Talvolta si identifica erroneamente il modello N-D con il modello a leggi di copertura. In effetti, mentre il modello N-D ricorre a leggi di copertura, non ogni spiegazione ricorrente a leggi di copertura è una spiegazione N-D; per esempio, sia il modello statistico-deduttivo sia quello statistico-induttivo sono modelli a leggi di copertura, ma non ovviamente modelli N-D. Il modello N-D, o di Hempel-Oppenheim, è anche noto come modello di Popper-Hempel. Ciò rende giustizia al fatto che Popper aveva proposto qualcosa di strettamente analogo - pur senza la precisione e il rigore con cui il modello sarebbe stato analizzato da Hempel e Oppenheim - fin dal 1934, anno dell'edizione tedesca della Logica della scoperta scientifica. La proposta popperiana fu però trascurata dalla comunità dei filosofi della scienza almeno fino all'uscita, nel 1959, dell'edizione inglese della Logica. Anche il saggio di Hempel e Oppenheim non fu molto discusso per almeno dieci anni. In effetti, il grande dibattito contemporaneo sulla spiegazione scientifica può essere fatto iniziare nel 1958, anno in cui M. Scriven pubblicò il suo lavoro contro il modello N-D e N. Hanson diede alle stampe I modelli della spiegazione scientifica in cui, fra altri temi, veniva discusso criticamente anche l' approccio hempeliano. Nel lavoro citato, Hempel e Oppenheim, rispondendo alla domanda intorno a che cosa voglia dire spiegare scientificamente, affermano che bisogna innanzi tutto distinguere ciò che deve essere spiegato (explanandum), che può essere un fatto singolo o una legge, da ciò che permette di spiegarlo (explanans). Inoltre, l'explanans deve essere composto di due parti: le leggi generali (LI' ... , L,), su cui si basa la spiegazione dell'explanandum, e le condizioni iniziali (Cl' ... , Ck), che permettono di estrarre deduttivamente l'explanandum (E) dalle leggi. Ne segue che il modello N-D è schematizzabile come segue 1.
LI' ... , L,
2.
cl' ... ,
3·
E
ck
Supponiamo, usando un classico esempio che Hempel trasse da J. Dewey, che il fatto da spiegare (E) sia dato dalla fuoriuscita e dal rientro di bolle di sapone da 37
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
un bicchiere che è stato capovolto su un vassoio dopo averlo tolto dall'acqua calda saponata in cui lo si era lavato. In tal caso dobbiamo trovare delle leggi grazie alle quali riusciamo a spiegare questo fatto e delle condizioni che permettono di dedurlo da tali leggi. Si arriva così a capire che la spiegazione di E ha la seguente struttura r. Leggi di copertura
2.
3·
Leggi sui gas; leggi sulla trasmissione di calore; leggi sul comportamento dei corpi elastici; ecc. Condizioni iniziali Il bicchiere è stato immerso in acqua avente temperatura più elevata di quella dell'aria circostante; il bicchiere è stato appoggiato capovolto su un vassoio su cui si è formata una sottile pellicola saponata che si interpone fra il vassoio e l'orlo del bicchiere; ecc.
E La formazione e il rientro di bolle di sapone
Nel mettere il bicchiere capovolto sul vassoio dentro di esso si imprigiona dell'aria fredda che viene riscaldata dal vetro, che è più caldo in quanto è stato immerso nell'acqua saponata calda. L'aumento della temperatura dell'aria provoca un aumento di pressione e quindi un'espansione della pellicola saponata fra bicchiere e vassoio. In tal modo fuoriescono delle bolle di sapone. A poco a poco, il vetro del bicchiere, esposto a temperatura ambiente, si raffredda, e quindi la pressione al suo interno diminuisce. Questo provoca il rientro delle bolle saponate. Una volta esposto il loro modello, Hempel e Oppenheim formulano delle condizioni che devono essere soddisfatte da ogni spiegazione che voglia essere considerata una spiegazione scientificamente valida a. condizioni di adeguatezza logica: I) l' explanandum deve essere una conseguenza logica dell' explanans; 2) l' explanans deve contenere almeno una legge di copertura; 3) l' explanans deve essere controllabile indipendentemente dall' explanandum; b. condizione di adeguatezza empirica: 4) l' explanans deve essere vero. In effetti, solo nel caso in cui (I) e (2) siano soddisfatte si ha un corretto ragionamento deduttivo. Solo nel caso in cui (3) sia soddisfatta non si ha una spiegazione ad hoc. Solo nel caso in cui (4) sia soddisfatta si ha che l' explanandum è vero (dal vero segue solo il vero). A questo proposito, va detto che Hempel e Oppenheim, ricorrendo a una definizione di Goodman (1947), considerano potenziali quelle spiegazioni N-D i cui explanans contengono enunciati generali legisimili, o legiformi, ovvero simili a leggi di natura, ma non tali potendo anche essere falsi, mentre le
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
leggi di natura sono sempre vere. Però considerato che non tutti gli enunciati aventi la forma logica degli enunciati legisimili lo sono veramente, sorge il problema di demarcare i primi dai secondi (vedi il sottoparagrafo successivo). Visto che Hempel e Oppenheim avevano fornito delle condizioni che dovevano essere soddisfatte affmché si avesse una buona spiegazione N-D, la maggior parte delle critiche che furono rivolte loro a partire dal 1958 puntava proprio a mostrare che non tutte le condizioni potevano essere soddisfatte, o soddisfacibili, in ogni caso. Si cercarono dei controesempi i quali mostravano che in effetti le condizioni non erano né sufficienti, né necessarie per poter avere una spiegazione valida. Fra i molti controesempi, se ne possono ricordare almeno due, dei quali il primo mostra la non sufficienza delle condizioni, il secondo la loro non necessità. 1. Controesempio dell'asta della bandiera (proposto da S. Bromberger). Si supponga di avere un'asta di una bandiera piantata su un terreno pianeggiante. In una giornata di sole, l'asta proietta sul terreno un'ombra, la cui lunghezza può essere N-D spiegata ricorrendo a certe leggi di copertura (l'ottica geometrica) e a certe condizioni iniziali (la lunghezza dell'asta e la posizione del sole). In tal modo abbiamo una spiegazione della lunghezza dell'ombra che soddisfa le condizioni imposte da Hempel e Oppenheim. Vi è però anche la possibilità di spiegare la lunghezza dell'asta ricorrendo alle stesse leggi e a condizioni iniziali esplicitanti la lunghezza dell'ombra e la posizione del sole. Pure in questo caso la spiegazione sarebbe formalmente valida, dal momento che soddisfa le condizioni di adeguatezza, ma quasi nessuno la riterrebbe effettivamente tale. In altri termini, vi è un'asimmetria fra i due casi che non può essere individuata dalle condizioni viste. Ne segue che esse non sono sufficienti per l'effettiva validità di una spiegazione N-D. Questa asimmetria, e anche l'esempio relativo, risulteranno in seguito centrali per un certo aspetto del dibattito sulla spiegazione, e precisamente per l'analisi che ne farà Van Fraassen. 2. Controesempio della macchia d'inchiostro (proposto da Scriven). Supponiamo che nel tappeto vicino alla scrivania del prof. Jones vi sia una macchia d'inchiostro. La possiamo spiegare nel seguente modo. Vi era una bottiglia d'inchiostro aperta e posta sull'angolo del tavolo. Il prof. Jones inavvertitamente l'ha urtata ed essa è caduta sul tappeto rovesciando il contenuto. In tal modo si è offerta una spiegazione che è perfettamente valida, pur senza contenere alcuna legge generale, contro la seconda condizione di adeguatezza. Ne segue che le condizioni non sono necessarie. Gli esempi proposti possono sembrare astrusi, e forse lo sono, ma questo non è un problema. Quando si offre una teoria, si vorrebbe che questa valesse per ogni caso. Quando la si vuole criticare, l'attenzione non viene focalizzata sugli aspetti per i quali la teoria funziona, bensì su quelli per i quali non funziona. È infatti alla periferia dell'ambito di cui si occupa la teoria che si trovano le pecche. E questa periferia è proprio il luogo frequentato, al fine di trovare controesempi, dai critici del modello di Hempel e Oppenheim. Oltre a questi problemi, la spiegazione N-D
39
www.scribd.com/Baruhk
Filosofia della scienz~: la chiusura di un ciclo?
presenta altre difficoltà, tra cui, per esempio, l'ostacolo derivante dalla spiegazione di leggi e dal fatto che Hempel e Oppenheim considerano perfettamente simmetriche la spiegazione e la previsione. In effetti, la spiegazione N-D dovrebbe essere anche un modello per la spiegazione di leggi generali del tipo r.
Leggi di copertura I tre principi della meccanica classica.
2.
Condizioni iniziali Si ha a che fare con corpi rotanti.
3·
E Tutti i corpi rotanti hanno un momento angolare diverso da zero
Sorge però un problema. Nel caso visto sopra si è in presenza di una spiegazione sia formalmente valida secondo i criteri visti, sia effettivamente valida, per esempio per i fisici. È tuttavia possibile formulare una spiegazione della stessa legge E in maniera che, pur essendo soddisfatti i quattro requisiti formali, nessun fisico la riterrebbe una spiegazione valida r.
Leggi di copertura Tutti i corpi rotanti hanno un momento angolare diverso da zero e tutti i corpi dotati di massa subiscono l'influenza gravitazionale.
2.
Condizioni iniziali Si ha a che fare con corpi rotanti.
3· E
Tutti i corpi rotanti hanno un momento angolare diverso da zero. Questo caso, peraltro discusso dagli stessi Hempel e Oppenheim, mostra come, a causa della natura stessa della logica - in particolare del connettivo «e» nascano dei problemi quando si deve distinguere una spiegazione delle leggi effettivamente valida da una solo formalmente valida. Su tale questione si sono concentrati molti autori, ma mai nessuno è riuscito a trovare una soluzione definitiva e convincente, anche se vi è stato chi in qualche modo ha tentato di trovare almeno una buona via d'uscita. Di questo tipo è, per esempio, la proposta di M. Friedman, basata sul presupposto che la scienza è un'impresa in cui si tenta di ridurre sempre più il numero di leggi indipendenti attraverso un processo di unificazione. In questo modo ogni legge indipendente verrebbe spiegata quando è sussunta sotto quei pochi principi assolutamente generali che reggono l'unificazione.38 Il secondo problema cui si accennava ha a che fare con la tesi proposta da
38 Si veda Friedman, 1974; per una critica, si veda Kitcher, 1976.
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
Hempel e Oppenheim secondo cui la spiegazione del fatto E, in base a un dato explanans, è perfettamente simmetrica alla sua previsione, grazie sempre allo stesso explanans. L'unica differenza sarebbe puramente pragmatica: nella spiegazione si ha già il fatto da spiegare, nella previsione si deduce il fatto che dovrà accadere. Anche questa tesi fu fortemente avversata e criticata sulla base di controesempi, fra cui quello ormai famoso della sifilide e della paresi. Controesempio della sifilide e della paresi (proposto da Scriven). Supponiamo che il sig. X abbia una paresi. Questo può essere spiegato con il modello N-D sapendo che egli ha la sifilide, di cui la paresi rappresenta uno stadio. Ma non è possibile prevedere che il sig. Y, che pure ha la sifilide, avrà certamente la paresi, dato che non tutti coloro che hanno la sifilide arrivano ad avere la paresi. Sintetizzando quanto detto, il modello N-D di Hempel e Oppenheim presenta delle difficoltà legate alla corretta definizione di legge, alla non necessità e non sufficienza delle condizioni individuate per poter ritenere effettivamente valida la spiegazione, alla simmetria fra spiegazione e previsione e alla incapacità di fornire dei buoni criteri per la spiegazione di leggi. 2) Prima digressione: il problema delle leggi di natura
Ogni legge di natura ha in genere una struttura logica del tipo condizionale universale, ovverosia del tipo V x(A(x) ___.. B(x)), vale a dire «Tutti gli x che sono A sono B », ossia per esempio «Tutti gli x che sono corpi massivi sono x che ubbidiscono alla legge di gravitazione universale». Ma non ogni condizionale universale è una legge di natura. 39 Infatti questa struttura è posseduta anche da proposizioni del tipo «Tutte le viti dell'auto di Caio sono ruggini» che non è affatto una legge di natura. Nel primo caso si parla di universalità nomica, o nomologica, nel secondo di universalità accidentale. Bisogna quindi trovare delle condizioni che permettono di identificare, fra tutti i condizionali universali, quelli che sono effettivamente leggi di natura. Sembrerebbe, di primo acchito, un compito facile: basterebbe individuare, fra tutti i condizionali, quelli che hanno un raggio d'azione illimitato, non contengono termini particolari e hanno predicati puramente quantitativi. In realtà così non è, dal momento che per ognuna di tali caratteristiche si può trovare un controesempio, come si apprende dalle pagine illuminanti de La struttura della scienza (1961), in cui E. Nagel (1901-85) esamina lo statuto delle leggi di natura. Fallita questa via, alcuni autori avanzarono l'idea che la soluzione del problema della distinzione fra nomicità e accidentalità potesse essere rintracciata nel fatto che, mentre gli universali nomici sembrano avere la prerogativa di reggere dei controfattuali, questo non vale per gli universali accidentali. 39 Come visto, sarebbe meglio parlare di «enunciati legisimili >> e non di «leggi di natura», dove le seconde sono vere, mentre i primi possono
essere falsi. Comunque, da ora si intenda con «leggi di natura>> gli enunciati legisimili.
41
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
Un controfattuale, o condizionale congiuntivo, è una proposizione del tipo «Se A fosse (o fosse stato) B, allora C sarebbe (o sarebbe stato) D. »40 Affermare che una legge («Tutti i metalli riscaldati si dilatano») regge un controfattuale, significa dire che il controfattuale relativo («Se x fosse un metallo e fosse riscaldato, si dilaterebbe») è vero. Fatto che non accade per gli universali accidentali: la proposizione «Tutte le viti dell'auto di Caio sono ruggini» non regge la verità del controfattuale «Se x fosse una vite dell'auto di Caio, sarebbe ruggine». Sorge il problema di stabilire quando un controfattuale è vero. Di questa spinosissima questione (il problema dei contro/attuali), tuttora aperta, si evidenzierà qui solo una parte dell'aspetto filosofico. Innanzi tutto, è chiaro che un controfattuale rappresenta un vero ostacolo per i filosofi di tradizione neopositivista. Infatti, da un lato, non è possibile controllare la sua verificabilità in quanto non è riducibile a fatti empirici, essendo, per definizione, una proposizione che va contro i fatti. Dire «Se A fosse (o fosse stato) B » significa dire che sappiamo che A non è (o non è stato) B. In secondo luogo, non è nemmeno possibile parlarne in termini vero-funzionali, nel senso di determinarne la verità a partire dalla verità delle proposizioni componenti. Questo è chiaro non appena si tenti di ridurre un controfattuale all'implicazione. In questo caso il controfattuale risulterebbe sempre vero in quanto il suo antecedente è falso; e l'implicazione è sempre vera se l'antecedente è falso, indipendentemente dalla verità o falsità del conseguente. In altri termini, sarebbe vero sia il controfattuale «Se x fosse un metallo e fosse riscaldato, si dilaterebbe», sia il controfattuale «Se x fosse un metallo e fosse riscaldato, non si dilaterebbe». Ma ciò è contro i nostri desiderata. Dunque nemmeno la logica può esserci d'aiuto. Per un certo periodo, la via d'uscita sembrò quella di riscrivere un controfattuale, contenente all'antecedente un verbo al congiuntivo e al conseguente un verbo al condizionale, come una meta-proposizione contenente solo verbi all'indicativo. Ricorrendo a un esempio di Nagel, il controfattuale «Se la lunghezza del pendolo fosse stata ridotta a un quarto della sua lunghezza attuale, il suo periodo sarebbe stato la metà di quello attuale» dovrebbe essere riscritto come «L'enunciato "Il periodo del pendolo a era la metà del periodo del pendolo attuale" segue logicamente dall'ipotesi "La lunghezza a era un quarto della sua lunghezza attuale", quando tale ipotesi venga congiunta con la legge che il periodo del pendolo semplice è 40 Sui controfattuali si veda Pizzi, 1978.
42
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
proporzionale alla radice quadrata della sua lunghezza, unitamente ad un certo numero di ulteriori assunzioni nelle condizioni iniziali rispetto alla legge (ad esempio, che a sia un pendolo semplice, che la resistenza dell'aria sia trascurabile). »41 Questa via potrebbe essere positivamente percorsa se non fosse per due ostacoli: la determinazione della legge e la determinazione delle condizioni iniziali. Si noti che si è ricorso ai controfattuali per discriminare l'universalità nomica, tipica della legge, da quella accidentale e ci si ritrova a dover valutare la verità del controfattuale in base alla legge, ossia si è entrati in un circolo vizioso. Inoltre non è chiaro quali siano le condizioni iniziali adatte. È proprio su queste problematiche che l'approccio appena visto si è impantanato (Chisolm, 1946; Goodman, 1947). Nel 1953, Goodman presentò una soluzione, dall'intonazione tipicamente pragmatica, che, a tutt'oggi, rappresenta la miglior soluzione filosofica «presente sul mercato» al problema dei controfattuali (Goodman, 1983). Seguiamone i passi. r. Goodman mostra che ogni proposizione controfattuale può essere ridotta a una contenente un termine disposizionale. Per esempio, il controfattuale «Se sfregassi il fiammifero, si accenderebbe» può essere ridotta a «Il fiammifero è infiammabile», dove «infiammabile» è il termine disposizionale. 2. Goodman affronta poi il problema dei disposizionali, ossia quello di capire come questi si differenzino dai termini non disposizionali, cioè da quelli « manifesti» che descrivono eventi, come «si piega», «si spezza», «brucia», ecc. 3· Una volta fatto questo, Goodman mostra che tale problema può essere ricondotto a quello della proiettabilità, in quanto ogni disposizionale può essere pensato come la proiezione di un termine manifesto. Per esempio, il disposizionale «flessibile» è la proiezione del termine manifesto «si flette». 4· In questo modo, però, ci si trova di fronte al problema di capire quando un termine è proiettabile, ossia a dover formulare una teoria della proiezione da ciò che è noto (il caso manifesto) a ciò che è ignoto (il caso non manifesto), ovvero da conoscenze date intorno al passato a conoscenze non date intorno al futuro. Entra così in gioco il «classico problema humeano dell'induzione», ossia del passaggio da n casi noti all'n + l-esimo non noto. Goodman, nell'affrontarlo, sostiene che in realtà Hume lo aveva risolto, anche se in senso psicologistico e in modo non preciso. 5· In realtà, il «classico problema dell'induzione» è quello della conferma di una teoria. Ricompare allora il problema della demarcazione fra condizionali universali nomici, le leggi di natura, e condizionali universali accidentali. Infatti, solo
41 Nagel, 1961, trad. it., pp. 77-78.
43
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
gli universali nomici possono essere confermati da casi futuri, ossia solo le leggi di natura possono essere proiettate validamente a casi non noti. Ne segue che il «nuovo enigma dell'induzione» sta nel distinguere gli enunciati proiettabili validamente da quelli non proiettabili validamente. 6. Discutendo il famoso paradosso degli smeraldi « blerdi », Goodman arriva a proporre che un'ipotesi è proiettabile se è empiricamente sostenuta, non è mai stata smentita e non ha ancora esaurito le sue possibili istanziazioni. Fra due ipotesi ugualmente proiettabili si sceglierà quella meglio «trincerata», ovvero quella che ha una «documentazione» più vasta rispetto alle proiezioni passate; in pratica, quella finora accettata da una data comunità di parlanti. 7· Ne segue che un controfattuale è valido se il corrispondente disposizionale comporta una proiezione trincerata. Quindi un condizionale universale è una legge di natura se è proiettabile e se è meglio trincerato rispetto ai rivali. Se si volesse sintetizzare quanto sopra con un motto, si dovrebbe dire che non è la logica a dirimere la questione fra accidentalità e nomologicità, ma la pragmatica: definire che cos'è una legge è una questione d'uso, più che di forma logica. 42 3) La spiegazione statistica
Ritorniamo ora alla spiegazione. Fra i punti deboli del modello N-D vi è anche il fatto che esso tratta solo di leggi di copertura riguardanti tutti i casi («Tutti gli x che sono A sono B»), ma una legge può anche essere statistica e quindi riguardare solo una parte di tali casi («Una parte degli x che sono A sono B »). In effetti, basta una rapida occhiata alla scienza contemporanea per accorgersi che le leggi statistiche sono diffusamente presenti e che quindi bisogna rendere conto anche delle spiegazioni che si ottengono da loro. ll primo a sottolineare questa lacuna fu N. Rescher; questi pubblicò nel 1962 un saggio, The stochastic revolution in the nature o/ scientz/ic explanation, che di fatto segna l'inizio del grande interesse intorno alla natura e alla struttura delle spiegazioni statistiche.43 Se il saggio di Rescher diede l'avvio a un vasto dibattito, il primo che arrivò a proporre una buona soluzione al problema della spiegazione statistica fu ancora Hempel in due saggi del 1962 e nel suo capolavoro del 1965, Aspetti della spiegazione scientifica. Innanzi tutto, bisogna distinguere fra spiegazione statistico-deduttiva (modello S-D) e spiegazione statistico-induttiva (modello S-1}. Mentre nella spiegazione S-D vi è la sussunzione deduttiva di un'uniformità statistica sotto un'uniformità statistica
198r; Van Fraassen, 1984; Earman, 1986.
42 Vale la pena sottolineare che questa non è l'unica possibilità aperta per cercare di definire che cosa sia una legge di natura. Altri approcci importanti sono quelli di Rescher, 1970; Skyrms,
43 Sulle spiegazioni statistiche si veda Galavotti, 1984.
44
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
più generale, in quella S-I vi è la sussunzione induttiva sotto un explanans, contenente sempre una legge statistica, di un fatto particolare. Nel caso del modello S-D incombe sempre il problema della spiegazione di leggi; inoltre, è anche ovvio che su di esso si riversino totalmente i problemi tipici della spiegazione N-D, che può essere pensata come un suo caso particolare. Un esempio di applicazione di tale modello lo si ha quando si spiega la fallacia del giocatore (ritenere che se per n volte si è avuto un dato risultato statistico, allora l'n + l-esimo dipenda da tale serie) I.
Leggi di copertura (di cui almeno una statistica) In ogni lancio casuale di una moneta non truccata l'uscita di una faccia ha probabilità 1!2; i risultati dei lanci sono statisticamente indipendenti.
2.
Condizioni iniziali La moneta che si lancia non è truccata; per n volte è uscita consecutivamente la faccia A.
3· E
La probabilità dell'uscita della faccia A dal lancio n + l è sempre 1!2. Comunque, è il modello S-I quello su cui si è concentrata quasi totalmente l'attenzione della comunità dei filosofi. Consideriamo, a tal proposito, un altro esempio hempeliano: I.
Leggi di copertura (di cui almeno una statistica) Vi è un'alta probabilità di guarire da un'infezione da streptococchi usando penicillina.
2.
Condizioni iniziali Il sig. Rossi ha un'infezione da streptococchi e si cura con penicillina.
- - - - - - - - - - - - - - - - - - - - [0,99] 3·
E Il sig. Rossi guarisce dall'infezione da streptococchi.
In questo modo, si inferisce induttivamente (ecco perché è stata usata la linea doppia, invece che la linea singola) che la guarigione del sig. Rossi, dopo la somministrazione della penicillina, è quasi certa (ha una probabilità pari a 0,99, dove la certezza è data da 1), grazie al fatto che si sa che coloro che hanno avuto la sua stessa infezione e che sono stati sottoposti a un trattamento a base di penicillina sono guariti nella grandissima percentuale dei casi (il 99%). 45
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
Si nota che, data la supposta simmetria fra spiegazione e predizione, l'evento
E da spiegare è interpretabile anche come quell'evento che ci saremmo aspettati accadere in base alla conoscenza di alcuni fatti avvenuti e raccolti nella legge di copertura statistica. Oltretutto, il suo verificarsi sarebbe atteso con un certo «peso»: ci si aspetterebbe che fosse quasi certo, che fosse molto probabile, che la sua probabilità fosse pari a 0,99. Di contro, nel caso deduttivo l'evento E da spiegare è interpretabile anche come quell'evento che ci saremmo aspettati accadere con certezza. Ovvero, «le spiegazioni di fatti o eventi particolari per mezzo di leggi statistico-probabilistiche si presentano come argomenti che sono induttivi o probabilistici nel senso che l' explanans conferisce all' explanandum un grado più o meno elevato di sostegno induttivo o di probabilità logica (induttiva); esse vengono pertanto chiamate spiegazioni statistico-induttive ». 44 Il primo problema che presenta tale modello, e che esamineremo nel prossimo paragrafo, è collegato al fatto che, secondo Hempel, il verificarsi di E deve essere quasi certo; il secondo ha a che fare con ciò che Hempel stesso chiama «l'ambiguità della spiegazione S-l». Supponiamo che il sig. Rossi abbia un'infezione da streptococchi immuni alla penicillina. In questo caso potremmo avere r'. Leggi di copertura (di cui almeno una statistica) Vi è un'alta probabilità che usando penicillina non si guarisca da un'infezione da streptococchi immuni alla penicillina. 2'.
Condizioni iniziali Il sig. Rossi ha un'infezione da streptococchi immuni da penicillina e si cura con penicillina.
- - - - - - - - - - - - - - - - - - - - - [0,99] 3'. E
Il sig. Rossi non guarisce dall'infezione da streptococchi. Mentre le premesse (r') e (2') sono compatibili con le premesse (r) e (2), non lo sono le conclusioni rispettive, ossia (3') e (3). Infatti, nel primo caso la guarigione è quasi certa (cioè ha una probabilità pari a 0,99), mentre nel secondo caso la guarigione è quasi esclusa (la sua probabilità è l-0,99). Tutte e due sono spiegazioni SI formalmente valide, ma solo una è effettivamente valida: tutto dipende dal tipo di infezione del sig. Rossi. Questa ambiguità non è presente in logica deduttiva, e quindi
44 Hempel, 1965, trad. it., p. So.
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
nelle spiegazioni deduttive, per via del principio di indebolimento secondo il quale se vale p ---.. q allora vale anche (p" t) ---.. q, per qualunque t. Ossia se un explanans spiega deduttivamente un dato explanandum, questo è spiegato anche se allo stesso explanans è aggiunta un'ulteriore premessa. Questo non vale nel caso della spiegazione induttiva dove l'aggiunta di un'ulteriore premessa (nel nostro caso il fatto che gli streptococchi sono immuni alla penicillina) all' explanans induttivo può cambiare la probabilità dell' explanandum. Per risolvere tale ambiguità, Hempel introduce il requisito della massima specificità, secondo cui una spiegazione S-I effettivamente valida è quella che include tutta la conoscenza disponibile rilevante per il problema. In tal caso, se sappiamo che il Sig. Rossi ha un'infezione da streptococchi immuni da penicillina, la spiegazione che varrà sarà la seconda e non la prima. Insomma, nuovamente si è partiti dalla logica per arrivare a trovare una soluzione di chiaro stampo pragmatico, che ha a che fare con il contesto entro cui si formula la spiegazione. A questo punto la storia dell'« opinione ricevuta» in fatto di spiegazione scientifica può dirsi conclusa. Successivamente sono stati fatti diversi tentativi di colmare le lacune dei modelli hempeliani di spiegazione N-D, S-D e S-I, oppure di sostituirli totalmente con altri. Fra le varie proposte che qui si è costretti a tralasciare, merita di essere almeno ricordata quella formulata da J.A. Coffa (1974) per risolvere l'ambiguità della spiegazione non tramite il requisito della massima specificità, bensì adottando l'interpretazione propensionale del calcolo delle probabilità, peraltro già avanzata anni prima da Popper, il quale considerava le probabilità come una propensione appartenente fisicamente agli insiemi statistici.45 4) La rilevanza statistica
Riflettendo, a partire dal 1965, sulla questione delle alte probabilità richieste da Hempel e sul valore della rilevanza in una spiegazione statistica, Salmon (1965 e 1971) arrivò a formulare un modello esplicativo alternativo, detto modello della rilevanza statistica (RS). Tale modello si basa sull'osservazione di R.C. Jeffrey (1969) secondo cui non tutte le spiegazioni sono strutturate come ragionamenti con i quali si inferisce il fatto da spiegare a partire da certe premesse, e su quella di J.G. Greeno (1970) secondo cui è importante considerare anche quanta informazione sia contenuta in una spiegazione. Pure in questo caso, ciò che diede l'avvio alla formulazione del nuovo modello fu la riflessione su certi controesempi. Pensiamo, per esempio, di dover spiegare perché il sig. Brown, che soffre di sintomi nevrotici, sia guarito. Usando il modello S-I, avremmo
45 Sull'interpretazione propensionale si veda Popper, 1957; per un uso alternativo dell'approccio
propensionale, si veda l'articolo del 1981 di Fetzer, Probability and explanation.
47
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo? I.
Leggi di copertura (di cui almeno una statistica) Molte persone che soffrono di sintomi nevrotici e che si sottopongono a psicoterapia guariscono.
2.
Condizioni iniziali Il sig. Brown si è sottoposto a psicoterapia.
- - - - - - - - - - - - - - - - - - - - - [0,99] 3· E
Il sig. Brown è guarito dai sintomi nevrotici. Bisogna però tener conto del fatto che ci sono persone che guariscono dai sintomi anche senza sottoporsi a psicoterapia. Inoltre, se la percentuale di coloro che guariscono senza psicoterapia è maggiore di quella di coloro che guariscono con la psicoterapia, la spiegazione di cui sopra non è effettivamente valida anche se è formalmente valida e anche se la probabilità di guarire attraverso la psicoterapia è molto alta. Quindi, l'alta probabilità della conclusione non è una condizione sufficiente. D'altro canto, la probabilità della conclusione potrebbe anche essere bassa, ma la spiegazione funzionare bene, se la percentuale di coloro che guariscono usando la psicoterapia fosse più grande della percentuale di coloro che guariscono senza psicoterapia. Allora ne segue che l'alta probabilità non è nemmeno una condizione necessaria. In realtà, ciò che è importante non è che la probabilità sia alta o bassa, quanto che la spiegazione sia statisticamente rilevante. Ma per poter valutare tale rilevanza statistica, al posto di una sola probabilità devono entrare in gioco due probabilità, una iniziale e una finale, che devono essere confrontate. Soffermiamoci sulla proposta di Salmon usando l'esempio hempeliano del sig. Rossi affetto da infezione da streptococchi. 46 Sia S l'insieme, detto «classe di riferimento», di tutti coloro che hanno un'infezione da streptococchi. In questo· caso, la probabilità di guarire (G) per coloro che appartengono a S è data da P(G/S). Però la classe S può essere suddivisa nella sottoclasse, o cella, di coloro che sono curati con la penicillina (C) e nella sottoclasse, o cella, di coloro che non sono curati con la penicillina (-.,C). Si è così fatta una partizione di S, infatti S = C u-., C. Più precisamente, dato un insieme S, una sua partizione è ottenuta quando si ha un insieme di suoi sottoinsiemi non vuoti SI' ... , Sn tali che
S.t n S.= 0, per ogni i=t:-j; 1
I.
2.
VI s.t =S.
l=
46 Si veda Salmon, 1990, trad. it., pp. II2-I23.
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
La partizione è detta statisticamente rilevante rispetto alla caratteristica G, se la probabilità di G cambia per ogni cella. Ovvero, se P( G/Si) :f:. P( GIS), per ogni i :f:. j. Così facendo, si avranno anche due probabilità, una iniziale, data da P(G/S), e una finale data da P( G/Sl.) . Ebbene, queste possono essere confrontate e si possono avere tre casi 1.
P(G!Si) >P(G!S), allora Si è positivamente rilevante per G;
2.
P(GIS)
3·
P(GIS.) = P(GIS), allora S.l è irrilevante per G. l
Torniamo al nostro esempio. Dopo aver partito in maniera rilevante (in quanto
P(GIC) i:-P(GI--, C)) gli individui affetti da infezione da streptococchi in quelli curati con la penicillina e in quelli non curati con la penicillina, e sapendo che il sig. Rossi è stato curato con la penicillina, abbiamo che P(G/C) > P(GIS). Ovvero siamo arrivati a spiegare, basandoci sulla rilevanza statistica, perché il sig. Rossi sia guarito. Infatti ora sappiamo che il sig. Rossi è guarito perché appartiene all'insieme di coloro che sono affetti da streptococchi e curati con la penicillina, per cui C è positivamente rilevante per G. Dobbiamo ora valutare se tale approccio riesca a superare il problema che aveva il modello hempeliano nel caso in cui ci siano in gioco streptococchi immuni alla penicillina. Possiamo partire S in due nuove classi: I e •l, dove la prima è la classe di coloro che sono affetti da infezione da streptococchi immuni alla penicillina e la seconda è la classe di coloro che sono affetti da infezione da streptococchi non immuni alla penicillina. Mettendo questa partizione insieme con quella precedente, abbiamo quattro celle c,= CAI
C2 = C"--, I C3 =·c" I C4 = , c" , I Tuttavia, questa non è una partizione rilevante, in quanto la probabilità di alcune celle è uguale. Infatti, P(G/C1 ) = P(G/C3 ) = P(G/C4 ) i:-P(GIC), dal momento che è perfettamente uguale essere curati con la penicillina e avere streptococchi immuni (C1), oppure non essere curati e avere gli streptococchi immuni alla penicillina (C3 ) o non immuni (CJ Bisogna quindi cambiare partizione. Un'alternativa può essere ottenuta partendo S nelle seguenti due celle = {individui curati con la penicillina e aventi l'infezione da streptococchi non immuni alla penicillina} = C"--, I; c~ = {individui curati con la penicillina e aventi l'infezione da streptococchi immuni; oppure individui non curati con la penicillina e aventi l'infezione da strep-
c;
49
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
tococchi immuni; oppure individui non curati con la penicillina e aventi l'infezione da streptococchi non immuni} = (C A I) u ( -, C A I) u ( -, C A-, I). In tal caso, si ha P'(G/C;) :;t:P'(G!C~), e la partizione è rilevante. Inoltre, posIn tal caso siamo spiegare la guarigione del sig. Rossi includendolo nella classe la probabilità finale è maggiore della probabilità iniziale, P(G/C;) > P(G/5), e l'essere stato curato con penicillina è rilevante per la sua guarigione. Sintetizzando, il modello RS è contraddistinto da quattro punti r. c'è una probabilità iniziale, P( G/5), rispetto alla caratteristica G che si prende in considerazione; 2. c'è una probabilità finale, P(G/C'.); t 3· c'è una partizione rilevante rispetto a G della classe di riferimento iniziale; 4· c'è un enunciato che ci dice qual è la cella a cui appartiene l'individuo in oggetto.
C;.
Tuttavia, in tal modo, la spiegazione, pur essendo ancora a leggi di copertura, dal momento che contiene due leggi statistiche che ci danno la probabilità iniziale e quella finale, non è più un modello inferenziale. Infatti, si ottiene la spiegazione del fatto E non più inferendolo (deduttivamente o induttivamente) dall' explanans. Quest'ultimo è una raccolta di dati statistici, opportunamente suddivisi, che ci permette di spiegare quell'evento una volta che lo abbiamo inserito in una determinata cella. Come tutti i tentativi, anche questo di Salmon ha i suoi difetti. Infatti, Salmon stesso ha avuto modo di evidenziare che molte volte una spiegazione di questo tipo può indurre a confondere ciò che è statisticamente rilevante con ciò che è causaimente rilevante. E in una spiegazione, per Salmon, è la rilevanza causale ciò che è «rilevante». Certo, può accadere che la rilevanza statistica stimoli a cercare la rilevanza causale, ma le due cose sono ben distinte, e devono essere tenute ben distinte. Ad esempio, i minimi della Borsa di Wall Street possono essere correlati statisticamente con il periodico passaggio di un certo corpo astrale. Riusciremmo quindi a fornire una spiegazione dei minimi della Borsa in base a tale rilevanza statistica, ma questa non sarebbe una buona spiegazione scientifica in quanto la pura accidentalità statistica non è scientificamente esplicativa. A questo proposito, è da notare che la mistificazione tipica di molte pseudoscienze si basa proprio su questa fallacia: si trasforma un'accidentalità statistica in un correlazione causale rilevante. 5) Seconda digressione: determinismo e indeterminismo del mondo
Avere una spiegazione statistica comporta inevitabilmente chiedersi se, completando le conoscenze che si hanno, essa possa essere trasformata in una spiegazione nomologica. In altri termini, una legge statistica è tale perché noi non abbiamo conoscenze sufficienti per determinare causalmente le correlazioni fra gli eventi o perché il mondo è realmente governato da leggi statistiche? 50
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
Questo problema non deve essere confuso con quello derivante dall'uso di leggi statistiche per comodità, pur nella consapevolezza che le cose non stanno così. Si pensi alla teoria cinetica dei gas, grazie alla quale si riesce a spiegare statisticamente, in questo caso in modo S-D, il comportamento di un certo gas. Ma la teoria cinetica dei gas non è una teoria in senso stretto, come per esempio la meccanica classica, quanto un modello che si utilizza per risolvere situazioni di calcolo difficilmente risolvibili in altro modo. Ci si potrebbe anche awalere della meccanica classica, ma in questo caso, già per una sola mole di gas, i calcoli sarebbero praticamente (ma non teoreticamente) impossibili. Infatti una mole contiene 6 x ro 23 (numero di Avogadro) particelle e per trovare l'equazione del moto di un tale sistema si dovrebbero allora risolvere r,8 x 10 24 equazioni, grazie a 3,6 x 10 24 condizioni iniziali che danno posizione e velocità di ogni particella (di ogni particella si dovrebbero conoscere le tre coordinate della sua posizione iniziale - x, y, z - e le tre componenti della sua velocità iniziale- vx, vy , v-z ). Si avrebbero 3,6 x I0 24 soluzioni che andrebbero sommate per avere i valori delle variabili macroscopiche che interessano, quali la pressione e la temperatura. In definitiva, ci si troverebbe di fronte a calcoli la cui lunghezza è praticamente impossibile da affrontare per un uomo, o anche per un sofisticatissimo computer. Si introducono allora degli assunti probabilistici che permettono di trattare statisticamente l'intera questione. Dopo aver assimilato le particelle del gas a biglie perfettamente sferiche ed elastiche, si considera uniformemente casuale la loro distribuzione nel volume che le racchiude; si assume che le componenti della velocità debbano essere mutuamente indipendenti dal momento che anche la distribuzione delle velocità è casuale; si presuppone che la densità di probabilità di trovare una particella con una certa velocità debba essere isotropa. Così facendo, si arriva a una formulazione che permette spiegazioni statistiche. In realtà si sa benissimo che un gas non è un insieme di biglie perfettamente sferiche che si urtano in modo perfettamente elastico e che sono dotate di una distribuzione di velocità con alcune caratteristiche ideali. Queste finzioni hanno uno scopo puramente strumentale. Ne consegue che la spiegazione statistica in questo caso non ha a che fare con la questione della struttura del mondo, bensì con una questione puramente pratica legata al nostro fare dei conti, sia esplicativi sia previsivi. Di tutt'altra natura è la spiegazione statistica, per esempio, in meccanica quantistica. In questo caso sorge un fondamentale problema: usiamo leggi statistiche perché è la natura del mondo subatomico che lo impone (interpretazione oggettivistica), oppure perché è la nostra mancata conoscenza di certe caratteristiche del mondo subatomico che ci spinge momentaneamente a usarle (interpretazione soggettivistica)? Nel primo caso consideriamo complete le spiegazioni statistiche; nel secondo caso le consideriamo incomplete e siamo spinti a cercare di completarle. Si intuisce che così si entra in questioni legate a credenze antologiche sulla vera struttura 51
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
del mondo, e non si ha più a che fare solo con questioni puramente scientifiche (la ricerca di teorie esplicative) o epistemologiche (l'analisi della struttura delle spiegazioni). Se nel caso della meccanica quantistica la possibile interpretazione delle spiegazioni statistiche ~sate è strettamente connessa con le credenze antologiche in gioco, di tutt'altro tipo è invece l'interpretazione delle spiegazioni statistiche impiegate, per esempio, nelle scienze umane o nelle scienze mediche. In questo ambito l'uso di leggi statistiche è dovuto alla non conoscenza della totalità delle cause effettive. Tuttavia questa mancanza di conoscenza ha a che fare non con credenze antologiche, bensì con questioni scientifiche legate alla complessità del fenomeno che si vuole spiegare o all'incompletezza della ricerca che lo riguarda. n fenomeno viene visto come un effetto causale, ma o non si è in grado di identificare la causa precisa oppure l'insieme preciso delle concause, fra quelle possibili, non è ancora stato determinato. Una spiegazione statistica del cancro ai polmoni che ha colpito il sig. Verdi può essere data tenendo conto che egli fumava e tenendo conto della legge statistica secondo cui coloro che fumano molto hanno una elevata probabilità di morire di cancro ai polmoni. Questa è una spiegazione statistica evidentemente insoddisfacente e tale insoddisfazione non è tanto dovuta a credenze antologiche quanto all'incompletezza delle nostre conoscenze scientifiche. Ecco allora che potremmo essere stimolati a cercare di completare la spiegazione, ossia a cercare le effettive cause del cancro ai polmoni trasformando così la spiegazione statistica in una spiegazione nomologica. Dunque, non sempre una spiegazione statistica è qualcosa che ha a che fare con la nostra ignoranza; per esempio non lo ha se crediamo che effettivamente il mondo sia governato da leggi statistiche (uso oggettivistico, dovuto a credenze antologiche, delle leggi statistiche). Inoltre, quando si ha a che fare con la nostra ignoranza, si deve distinguere: r) il caso in cui appositamente vogliamo sapere meno perché solo così riusciamo a risolvere certi problemi (uso strumentale delle leggi statistiche); 2) il caso in cui ci riteniamo ignoranti in quanto crediamo che il mondo sia governato da leggi deterministiche che non conosciamo (uso soggettivistico, dovuto a credenze antologiche, delle leggi statistiche); 3) il caso in cui sappiamo di essere ignoranti in quanto sappiamo che quel dato fenomeno è stato causato da qualcosa che però non conosciamo ancora in toto o in parte (uso soggettivistico, dovuto a una non completa conoscenza scientz/ica, delle leggi statistiche). 6) La pragmatica della spiegazione
L'ultimo approccio alla spiegazione che viene qui esaminato è quello, particolarmente innovativo e importante, proposto da Van Fraassen a partire dal 1977 e che ha trovato una sistemazione definitiva in suo lavoro del 1980. Due sono i presupposti teorici da cui parte Van Fraassen. Da una parte, in linea con il suo antirealismo (si veda oltre), egli ritiene che se una teoria offre una
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
spiegazione di un fatto E, questo non significa che la teoria sia vera o renda conto della realtà, ma solo che «sui libri» si ha una qualche formulazione accettabile che consente di spiegare E. Dall'altra parte, egli non vuole fornire solo un modello di spiegazione scientifica, anche se è soprattutto interessato a questo ambito disciplinare, quanto presentare una teoria che ha come oggetto qualunque forma di «domanda-perché» e le sue risposte. Per conseguire questo risultato, Van Fraassen evidenzia che quando si formula un «perché» in gioco non vi sono mai due componenti, la teoria che spiega e il fatto che viene spiegato, bensì tre: la teoria, il fatto e il contesto. Solo in tal modo si possono superare due grosse difficoltà che, secondo Van Fraassen, non sono risolte da nessun modello, ma che invece dovrebbero essere risolte da una teoria della spiegazione che vuole essere considerata valida. La prima difficoltà risiede nel fatto che bisogna rendere conto, oltre che dei «perché» a cui si dà una risposta, anche dei «perché» a cui si rifiuta una risposta. Questo è molto importante per la storia della scienza, in quanto molte volte ci si trova di fronte a domande che scienziati di una data epoca ritengono illegittime e alle quali si rifiutano di rispondere. Per esempio, i fisici contemporanei si rifiutano di rispondere a una domanda aristotelica del tipo: «Perché un corpo lasciato libero si muove verso il suo luogo naturale?» Oppure, benché a una domanda del tipo «Perché il sig. X e non i suoi fratelli ha una paresi? » rispondiamo dicendo «Perché il sig. X ha la sifilide», opponiamo invece un rifiuto a una domanda del tipo «Perché fra tutti i sifilitici della sua città, proprio il sig. X ha una paresi? » La seconda difficoltà risiede nell'asimmetria della spiegazione, già vista analizzando il controesempio proposto da Bromberger al modello N-D. In questo caso, il modello N-D non riesce a discriminare qual è la spiegazione valida fra quella della lunghezza dell'ombra dell'asta, partendo dalla lunghezza di quest'ultima, e quella della lunghezza dell'asta partendo dalla lunghezza della sua ombra. Si noti che per Van Fraassen, a differenza della maggior parte degli altri filosofi interessati alla spiegazione, possono valere tutti e due i casi; a questo proposito egli racconta una storia che ha per oggetto l'altezza di una torre e la lunghezza della sua ombra. Immaginandosi ospitato in un palazzo dell'entroterra francese, Van Fraassen chiede al padrone di casa perché la torre che vede abbia un'ombra così lunga. Il suo ospite gli risponde che è perché la torre è stata costruita alta tanti metri quanti sono gli anni che avrebbe avuto una certa regina in un certo anno. In tal modo, la lunghezza dell'ombra viene spiegata in funzione dell'altezza della torre. Ma la cameriera, una volta che il padrone se n'è andato, gli racconta che la torre è stata costruita così alta in modo da avere un'ombra così lunga da coprire a una certa ora una certa zona del terrazzo in cui in un certo anno fu compiuto un delitto. Ne segue che si è spiegata l'altezza della torre in funzione della lunghezza dell'ombra. In tal caso, tutte e due le spiegazioni sono valide, solo che lo sono relativamente a un certo contesto. 53
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
li modello di Van Fraassen è basato sulle analisi delle «domande-perché» elaborate da Bromberger (1966) e sulla versione di N. Belnap della logica erotetica (Belnap e Steel, 1976). Una data «domanda-perché» Q è sempre una interrogazione espressa in un dato contesto ed è pensabile come una tripla Q = , dove I. Pk è il tema della domanda; 2. X = {PI' ... , Pk, ... ) è la classe antitesi; 3. R è la relazione di rilevanza. Supponiamo che la «domanda-perché» in questione sia «Perché Adamo mangiò la mela?» In questo caso il tema della domanda, ossia Pk, è dato dalla proposizione «Adamo mangiò la mela». Possiamo però avere più classi antitesi, precisamente tante quante sono le interpretazioni della «domanda-perché». In effetti, la domanda può essere letta enfatizzando di volta in volta uno dei tre elementi che la compongono --- Adamo, il mangiare, o la mela - ovvero a. «Perché Adamo mangiò la mela? »; b. «Perché Adamo mangiò la mela?»; c. «Perché Adamo mangiò la mela?>>. Nel caso (a), chiediamo perché proprio Adamo e non Eva mangiò la mela, ovvero la classe antitesi è data da X = {Adamo mangiò la mela, Eva mangiò la mela, ... }. Nel caso (b), chiediamo perché Adamo mangiò la mela invece di buttarla via, o di }asciarla dov'era; per cui la classe antitesi è data da X = {Adamo mangiò la mela, Adamo buttò via la mela, Adamo conservò la mela, ... }. Infine, nel caso (c), chiediamo perché proprio la mela e non la pera, o l'arancia, ecc.; quindi la classe antitesi è X = {Adamo mangiò la mela, Adamo mangiò la pera, Adamo mangiò la fragola, ... }. Sarà il contesto a farci decidere qual è la classe antitesi corretta e quindi a permetterei di interpretare la domanda in senso appropriato. Da ultimo, la relazione di rilevanza R è quella relazione che consente di individuare qual è il punto di vista rispetto al quale si richiede una ragione. Ossia, una proposizione A è detta rilevante esplicativamente, rispetto alla domanda Q, se A è nella relazione esplicativa R con la coppia Q = . Ad esempio, supponiamo che il sig. X sia morto in un incidente stradale e chiediamo: «Perché X è morto? » Se la domanda è posta a un agente della polizia stradale, questi ci fornirà una risposta A imperniata sulla dinamica dell'incidente e che perciò presuppone una certa relazione esplicativa R. Se la stessa domanda è rivolta a un medico legale, questi fornirà una risposta A' che parla delle cause fisiologiche del decesso, e quindi si presupporrà una diversa relazione di rilevanza R'. Entrambe le risposte sono valide, solo che la loro validità è relativa a una determinata relazione di rilevanza esplicativa, nuovamente decisa in base al contesto. Una volta stabilito quali sono le domande, bisogna stabilire quali siano le risposte. Una risposta B a una domanda Q è una proposizione del tipo 54
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
B = «Pk in antitesi (con il resto di) X perché A» o, più sinteticamente, B = «perché A », dove A si chiama il «nucleo» della risposta. Sostenere che «Pk in antitesi (con il resto di) X», ossia affermare ciò che Van Fraassen chiama « presupposizione centrale della domanda Q», significa sostenere che Pk è vero, e che non è vero ogni altro Pi di X, con i:F-k. Naturalmente la risposta B dipenderà dal contesto che ha selezionato proprio quella domanda Q; più precisamente B dipenderà dalla relazione di rilevanza R. Ne consegue che una «domanda-perché» ha sempre i seguenti presupposti r. il tema della domanda è vero; 2. a parte il tema della domanda, ogni altro elemento della sua classe antitesi è falso; 3· è vera almeno una delle proposizioni A che si trovano in relazione di rilevanza esplicativa con il tema e con la corrispondente classe antitesi. Van Fraassen fa notare che è importante tener conto della conoscenza di sfondo K di colui che risponde. Infatti, in un dato contesto, sarà K che determinerà la possibilità di rispondere a Q e il livello a cui si potrà rispondere. Nella fattispecie, affinché la domanda si ponga, bisogna che K implichi la presupposizione centrale, ossia che K contenga la conoscenza di sfondo che permette di sostenere che Pk è vero, e che non è vero ogni altro P.,l con i:F-k. Il fatto, comunque, che una domanda si possa porre, non comporta che la domanda possa avere risposta. Questo approccio pragmatico consente di risolvere i due problemi della spiegazione prima menzionati. Il problema dell'eventuale rifiuto di una risposta è risolto riflettendo sulla classe antitesi, o sulle presupposizioni. Nell'esempio della paresi e della sifilide la domanda a cui non si risponde è: «Perché fra tutti i sifilitici della città proprio il sig. X ha avuto la paresi? » In questo caso non si fornisce una risposta perché è disattesa la terza presupposizione. Infatti non esiste alcuna proposizione A che sia esplicativamente rilevante rispetto al tema e rispetto alla sua classe antitesi individuata dal contesto, cioè X = {Il sig. X che è sifilitico ha avuto la paresi, Il sig. Y che è sifilitico ha avuto la paresi, Il sig. Z che è sifilitico ha avuto la paresi, ... }. Ovvero, si arriva alla conclusione che non è possibile rispondere a tale domanda riflettendo proprio sulla composizione della sua classe antitesi. Non c'è infatti alcuna buona ragione che permetta di favorire il sig. X, rispetto al sig. Y o al sig. Z, ossia il tema rispetto agli altri elementi della classe antitesi. Tra l'altro, questa osservazione consente di capire che non è vero che spieghiamo un evento singolo autonomamente (la paresi del sig. X), ma sempre un evento singolo rispetto alla sua classe antitesi, che nella maggior parte dei casi non è mai esplicitata dato che risulta chiara dal particolare contesto in cui d si muove. D'altro canto, si può 55
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
opporre un rifiuto anche a domande del tipo «Perché il sig. Y è morto?» quando, in base alle conoscenze che si hanno in una certa epoca, si può non sapere se effettivamente il sig. X sia morto, ossia se il tema è vero. In tal caso, è disatteso il secondo punto che si presuppone quando si fa una «domanda-perché» e si vuole una risposta. È da notare che, mentre nel caso della paresi-sifilide la conoscenza di sfondo K implica la presupposizione centrale, ossia permette di asserire la verità del tema, questo non accade più nel secondo caso. Per questo, a rigore, si deve dire che nel primo caso la domanda si può porre ma non ammette risposte, mentre nel secondo caso la domanda non ammette risposte perché non si può porre. Il problema dell'asimmetria della spiegazione è invece risolto riflettendo sulla relazione di rilevanza. Nel caso della torre e dell'ombra, ciò che è rilevante per l'ospite francese di Van Fraassen non è rilevante per la cameriera, che fornisce una risposta diversa basata su una relazione diversa. Questa soluzione, tuttavia, accontenta molto poco i sostenitori di una spiegazione strettamente causale, in quanto si trasformerebbe fallacemente un effetto (l'ombra) nella causa della sua causa (la torre)Y Con questo approccio, tipicamente pragmatico in cui il contesto gioca un ruolo fondamentale, Van Fraassen è uscito dalla strada maestra, percorsa fino ad allora, che cercava di fornire modelli semantici o sintattici, ed è riuscito a mostrare che richiedere una spiegazione non è solo applicare al dato caso un modello esplicativo più o meno semplice; si tratta piuttosto di qualcosa che ha a che fare con la conoscenza, le intenzioni e le presupposizioni di colui che pone la domanda e di colui che dovrebbe, o vorrebbe, rispondere. Richiedere una spiegazione è richiedere una risposta e la risposta dipende dal contesto in cui è formulata e dalla conoscenza di sfondo di colui che risponde. 48 V
·
LA
«VEXATA
QUAESTIO»
DEL
REALISMO
SCIENTIFICO
Tentare di rendere conto nella sua totalità del dibattito sul realismo negli ultimi decenni è impresa che non solo appare disperata, ma effettivamente lo è. Praticamente ogni filosofo della scienza contemporaneo è un realista o un antirealista in un suo modo ben preciso. Ma non solo: quando un autore decide di esplicitare la sua posizione, di solito delinea preliminarmente la posizione avversa per criticarla, e quindi, se realista, parla dell' antirealismo, se antirealista, parla del realismo. Quindi, non solo ogni filosofo della scienza contemporaneo è un realista o un antirealista in un modo tutto suo, ma avversa anche un antirealismo o un realismo che, di nuovo, è tutto suo. 47 Si veda, per esempio, Salmon, 1984. 48 Per una critica a tale approccio si vedano
i contributi di Achinstein, 1984; Kitcher e Salmon, 1987.
56
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
In questa «babele» di realismi e antirealismi si possono comunque trovare degli elementi comuni che permettono di delineare certe coordinate. Tuttavia, va subito notato che questi elementi non si individuano affatto mettendo da una parte i realisti e dall'altra gli antirealisti. Infatti, come si vedrà, si può essere realisti su certe cose e antirealisti su altre, e viceversa. Innanzi tutto, si deve tenere presente che quando si tratta del realismo scientifico, di solito, non sono affatto in gioco problemi strettamente antologici. Di solito, non si pone la questione dell'esistenza del mondo esterno, quanto quella del valore conoscitivo delle teorie. Di conseguenza, dirsi antirealisti o realisti non corrisponde affatto a, rispettivamente, negare o ammettere l'esistenza del mondo esterno. È quanto già insegnava G. Berkeley che, pur ritenendo che esse est percipi, e che quindi non ci fosse alcuna materialità, non negava affatto la realtà. 49 Quindi essere realisti non significa necessariamente credere nell'esistenza del mondo esterno. La discussione sul realismo scientifico usualmente non sconfina in un dibattito metafisica sull'esistenza o meno del mondo esterno. Si tratta infatti di una discussione che tenta di rispondere a domande del tipo: «Qual è il rapporto tra teoria e mondo?», «Di che cosa parlano le teorie scientifiche?», «Qual è il loro statuto conoscitivo?», ecc. A queste domande i vari autori contemporanei rispondono, di solito, o presupponendo l'esistenza di un mondo esterno o mettendo fra parentesi tale problema. Per esempio, gli antirealisti scientifici non vogliono affatto negare l'esistenza del mondo esterno, bensì il valore conoscitivo delle teorie. In definitiva, la vexata quaestio del realismo scientifico si gioca pressoché tutta nell'ambito della filosofia della scienza e non nell'ambito della metafisica. Dopo questa prima precisazione, se ne impone subito una seconda. Vi è differenza fra il realismo sulle entità e il realz"smo sulle teorie, e quindi fra le due corrispettive forme di antirealismo. Mentre il realista sulle teorie è colui che afferma che le teorie sono vere e quindi parlano della realtà delle cose, il realista sulle entità si limita a dire che solo le entità di cui parlano le teorie sono reali. Di contro, l'antirealista sulle teorie nega che le teorie siano vere e che quindi descrivano cose reali, mentre l' antirealista sulle entità nega che esista effettivamente qualcosa avente le caratteristiche di tali entità teoriche. Ovviamente, essere realisti sulle entità non comporta affatto essere realisti sulle teorie, anzi, usualmente, un realista sulle entità è un antirealista sulle teorie. Invece un realista sulle teorie è un realista anche sulle entità, dal momento che le teorie contengono proposizioni vere sulla realtà e quindi le entità teoriche di cui esse parlano sono entità reali. Ma non ogni realista sulle teorie ammette la realtà dello stesso insieme di entità. D'altronde non tutte le entità teoriche sono uguali: un elettrone è qualcosa di epistemologicamente diverso da un campo di forze, per cui un reali-
49 Si veda Berkeley, 1713, trad. it., parr. 34-41.
57
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
sta sulle entità potrebbe sostenere la realtà degli elettroni, ma non la realtà del campo di forze. Analogamente, nemmeno i realisti sulle entità lo sono sulle stesse entità. Naturalmente, chiunque si ponga in quest'ottica, sia egli un realista sulle entità o un realista sulle teorie, deve necessariamente fornire un criterio di demarcazione fra le entità che considera reali e quelle che non considera reali. Avendo a che fare con particolari modi di interpretare il rapporto teoria-mondo, siamo di fronte a un esempio importante di quelle credenze epistemologiche che abbiamo già discusso in generale. Ne segue che il modo in cui le si giustifica non apparterrà all'ambito della dimostrazione, quanto all'ambito dell'argomentazione. Fra quelle portate a favore del realismo sulle teorie, la più forte è basata sull'inferenza alla miglior spiegazione, codificata in un saggio di G. Harman del 1965. 50 Secondo questo argomento, non può assolutamente essere una coincidenza o un miracolo che le teorie abbiano successo empirico. Vi deve essere una ragione, e questa sta nel fatto che esse sono vere, o comunque molto prossime alla verità, e quindi descrivono la realtà delle cose. Perciò, la teoria che offre la miglior spiegazione è anche la teoria più vera. Un realista sulle teorie che usa l'argomento dell'inferenza alla miglior spiegazione è, per esempio, J.J. Smart; egli è però un esempio di quei realisti sulle teorie che non ammettono che tutte le entità siano reali; egli per esempio ammette la realtà degli elettroni, ma nega la realtà delle linee di forza. Non tutti i realisti sulle teorie seguono questo approccio. Vi è una forma più sofisticata di inferenza alla miglior spiegazione usata, per esempio, da Popper, per il quale, tra l'altro, devono essere connotate in senso realista non solo le teorie, ma anche tutte le entità di cui esse parlano. Addirittura, per Popper (1957) sono reali molte più cose di quelle che normalmente sono reali per un realista sulle teorie. Per esempio, affrontando il problema della realtà della meccanica quantistica egli arriva a proporre l'esistenza di certe forze misteriose che fanno sì che le particelle microscopiche abbiano un comportamento quantistico invece che uno classico. Gli antirealisti sulle teorie cercano, al contrario, di smontare l'argomento dell'inferenza alla miglior spiegazione mostrando che il successo empirico non implica affatto la verità delle teorie esplicative. Questa controargomentazione contro il realismo convergente, come è chiamato, può essere sviluppata in molti modi, ma il «più accreditato» dagli antirealisti è quello proposto da L. Laudan e basato su casi tratti dalla storia della scienza, che mostrano come teorie che in una certa epoca erano le migliori spiegazioni in un'epoca successiva si sono rivelate totalmente false. 51 Vi è tuttavia un altro importante argomento contro l'inferenza alla miglior spiegazione: quello che si basa sulla tesi della sottodeterminazione della teoria a causa dei dati, secondo cui uno stesso insieme di dati empirici può essere spiegato da più di una teoria. In tal caso è ovvio che l'inferenza alla miglior spiegazione non può 50 Per un'analisi globale si veda Lipton, 1991. 51 Si veda Laudan, 1981; per una critica si
rimanda al lavoro di Hardin e Rosenberg, 1982.
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
funzionare in quanto vi sono più teorie che spiegano ugualmente bene lo stesso ambito. Questo argomento, benché nel dibattito contemporaneo venga fatto talvolta risalire a Duhem, in realtà proviene da ].C. Maxwell e, soprattutto, da H. Hertz, il quale, nell'introduzione al suo Die Prinzipien der Mechanik (1894), ha per la prima volta esplicitamente teorizzato che uno stesso insieme di fatti empirici può essere organizzato da più «immagini» teoriche. 52 Sorge a questo punto un nuovo problema. Infatti per un empirista, per esempio alla Van Fraassen, due teorie che rendono conto dello stesso insieme di fenomeni osservabili sono empiricamente equivalenti, ovvero sono solo due modi diversi per dire la stessa cosa. 53 Questo però non è più vero per certi sostenitori della sottodeterminazione, come per esempio lo stesso Hertz. Infatti, anche se le due teorie sono equivalenti rispetto a un certo insieme di dati osservabili, non sono affatto equivalenti rispetto a eventuali fenomeni non osservabili. Ma che cosa può essere definito non osservabile? Il problema non è facile da dirimere, perché bisognerebbe trovare un buon criterio di demarcazione; ma, come ha mostrato G. Maxwell in un classico lavoro del 1963 a cui molti protagonisti del dibattito sul realismo fanno riferimento, forse non c'è alcuna possibilità di trovar! o. Distinguere l'osservabile dal non osservabile è estremamente importante per il problema del realismo: poter dire che qualcosa è osservabile o non lo è comporta molto per la sua realtà. A questo proposito vale la pena ricordare che vi sono sia diversi tipi di osservabilità, sia diversi tipi di non osservabilità. Innanzi tutto, un'entità può essere osservabile direttamente senza alcun strumento «non umano». Per esempio, una sedia è osservabile direttamente senza necessità di strumenti aggiuntivi (naturalmente per chiunque sia vicino alla sedia e non abbia problemi di vista). Ma vi sono entità che possono essere osservate direttamente solo usando degli strumenti, come il telescopio, il microscopio, ecc.: gli anelli di Saturno sono entità osservabili direttamente con il telescopio; la cellula è un'entità che può essere osservata direttamente con il microscopio, e così via. Fin qui nessuna difficoltà. Il problema nasce quando si passa all' osservabilità per inferenza. Vi sono entità che non possono essere osservate direttamente, nemmeno usando particolari strumenti, ma solo grazie agli effetti che in certe circostanze provocano. Per esempio, una particella elementare non può essere osservata direttamente, ma solo inferendo causalmente la sua presenza dagli effetti che provoca in una camera a nebbia. Chi accetta questa osservabilità, come per esempio N. Cartwright, può essere considerato un causalista, ma non tutti sono causalisti. Per questi ultimi si deve sospendere il giudizio sulla realtà degli osservabili per inferenza (è la tesi di Van Fraassen), oppure si deve addirittura negare la loro realtà.
52 Sull'origine del problema della sottodeterminazione si veda D'Agostino, 1990; per un'interpretazione di questo argomento a favore del
realismo, si veda Boyd, 1973. 53 Un'analisi delle descrizioni equivalenti è contenuta in Reichenbach, 1938.
59
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
Vi è poi il regno del non osservabile. Vi sono entità non osservabili per via dei limiti tecnologici, ma vi sono entità che sono non osservabili perché la teoria le ha costruite così. Le prime sono entità, come il bosone di Higgs, che oggi non possono essere osservate nemmeno per inferenza perché manca la tecnologia adeguata, ma in futuro, con una tecnologia più potente, forse potranno essere osservate (magari per inferenza). Le seconde sono entità che non potranno mai essere osservate. G. Maxwell nega che la scienza ne ammetta, ma l'etere, nella formulazione finale proposta da H.A. Lorentz, era di questo tipo: dopo le critiche mosse alla sua teoria, egli cominciò a ripensare la natura del mezzo luminifero finché, nel 1909, arrivò a considerarlo talmente privo di proprietà fisiche che diventò un'entità del tutto non osservabile. Nonostante le molte forme di realismo e di antirealismo, che qualcuno ha anche tentato di classificare,54 le osservazioni appena fatte dovrebbero offrire delle chiavi sufficienti per poter agevolare la comprensione del problema e quindi per poter meglio inquadrare le quattro paradigmatiche posizioni che prenderemo in esame, ossia quelle di Van Fraassen, Cartwright, Hacking e Fine. Tra l'altro queste sono anche alcune delle posizioni più discusse in ambito internazionale. 1)
I.:empirismo costruttivo di Van Fraassen
B. Van Fraassen è certamente da considerare uno dei filosofi della scienza di maggior interesse presenti sulla scena contemporanea, come indicano le tesi sulla spiegazione, sulla probabilità e sul realismo sostenute in alcuni saggi raccolti in I.:immagine scientifica del 1980. 55 Come già si è detto, parlare di realismo e antirealismo equivale in realtà a parlare della particolare forma di realismo, o di antirealismo, avanzata da un autore e anche della particolare forma di antirealismo, o di realismo, che egli critica. Ne consegue che bisogna subito chiarire quale sia la forma di realismo avversata da Van Fraassen, dal momento che egli si dichiara un antirealista. Innanzi tutto, egli non parla affatto di realismo ontologico, quanto di realismo scientifico, individuato nella posizione che sostiene che le teorie scientifiche siano dei tentativi di fornire una storia «letteralmente vera» di ciò che accade nel mondo. Inoltre, secondo Van Fraassen, l'essere realisti sulle teorie non è l'unico modo per poter «servire i fini della scienza», dal momento che questi possono essere serviti altrettanto bene anche da un antirealista che, pur non considerando necessaria la verità delle teorie, richiede che esse siano almeno empiricamente adeguate, comprensive e pragmaticamente accettabili. La forma di antirealismo che il filosofo di Princeton propone ha le sue radici nell'empirismo neopositivista, di cui è figlio, anche se se ne allontana a favore di 55 Per un dibattito sulle posizioni di Van Fraassen, si veda Curchland e Hooker, 1985.
54 Per questi tentativi si vedano, per esempio, Horwich, 1982; Boyd, 1983; Harré, 1986.
6o
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
una versione, chiamata empirismo costruttivo, che cerca di superare i problemi della posizione originaria. Nella fattispecie, dell'empirismo logico Van Fraassen accetta la tesi secondo cui la teoria deve essere una spiegazione vera di ciò che è osservabile, e basta. D'altronde solo questo interessa descrivere o spiegare: ciò che non è osservabile è solo un accessorio che viene introdotto per rendere conto coerentemente e comprensivamente di ciò che è osservabile. Tuttavia, l'empirismo logico non si è limitato a sostenere questa tesi. A essa ne ha aggiunte altre due fra loro correlate: una sul significato e una sul linguaggio. Van Fraassen le rifiuta entrambe considerando eccessiva la pretesa dei neopositivisti di ridurre ogni questione a problemi linguistici. Sicuramente un'analisi della teoria scientifica, essendo questa scritta in un linguaggio, ha a che fare con questioni linguistiche, ma queste non possono, né debbono, essere le uniche prese in considerazione. D'altro canto, è stata proprio l'attenzione sul linguaggio che ha contribuito a portare verso la tesi della theory-ladenness che gli stessi autori di tradizione neopositivista più ortodossa sono stati costretti a fronteggiare cercando di introdurre un'assai problematica divisione fra «teorico» e « osservativo ». In tal modo essi hanno imposto qualcosa dall'esterno, qualcosa avente carattere filosofico. In definitiva, Van Fraassen accetta la tesi centrale empirista, ma rifiuta la teoria del significato e la preminenza attribuita al linguaggio. Per quanto riguarda il problema della theory-ladenness, egli è d'accordo con coloro che sostengono la teoreticità dell'osservazione. D'altro canto non è questa che lo preoccupa, quanto trovare un elemento interno alla scienza stessa che gli consenta di superare le difficoltà connesse. Questo elemento viene rintracciato proprio nella divisione fra osservabile e non osservabile. Dunque, Van Fraassen è un empirista, ma un empirista di tipo particolare, un «empirista costruttivo», come egli stesso si definisce: ritiene che la scienza sia una descrizione vera solo di ciò che è osservabile e che l'attività scientifica sia volta alla costruzione (ecco il motivo dell'aggettivo « costruttivo») di modelli che «salvano i fenomeni» e non alla scoperta di entità non osservabili. Di conseguenza non si può più accettare una teoria perché la si crede vera; la si accetta in quanto, da un lato, la si crede «empiricamente adeguata» (è la dimensione epistemica dell'accettazione) e, dall'altro, perché è funzionale a qualche scopo (è la dimensione pragmatica dell' accettazione). L'argomentazione che Van Fraassen usa per sostenere la sua tesi è basata sulla discussione dei seguenti punti: r) la distinzione osservabile/non osservabile; 2) il passaggio dall'inferenza alla miglior spiegazione all'inferenza alla spiegazione empiricamente adeguata; 3) la pragmatica dell'accettazione. Conviene mettere subito in chiaro un aspetto: Van Fraassen non nega che il linguaggio delle teorie debba essere interpretato letteralmente, ma nega che sia letteralmente vero. Mentre i realisti sostengono che la scienza dice qualcosa di letteralmente vero relativamente alle entità osservabili e non osservabili, gli antirealisti 6r
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
negano c1o. Questa negazione può avvenire o perché si ritiene, con gli strumentalisti e i positivisti, che quanto le teorie affermano non debba essere interpretato letteralmente, ma per esempio in senso metaforico, oppure perché, pur affermando la letteralità dell'interpretazione - come propone Van Fraassen stesso -, non si ritiene che sia la teoria nella sua totalità a essere vera quanto solo i singoli enunciati che parlano degli osservabili. È allora di centrale interesse risolvere la questione di ciò che è osservabile. La soluzione di Van Fraassen viene elaborata attraverso una discussione critica del saggio di G. Maxwell ricordato, nel quale si sostiene, da un lato, l'impossibilità di demarcare precisamente la differenza fra osservabile e non osservabile e, dall'altro, che se anche una tale demarcazione fosse possibile non sarebbe importante in quanto vincolata alla nostra costituzione fisiologica (nel senso che ciò che per le nostre condizioni fisiologiche è non osservabile, per un essere con caratteristiche fisiologiche diverse potrebbe essere osservabile). Contro il primo argomento, Van Fraassen fa notare che, nonostante la divisione possa essere effettivamente vaga, non per questo è inutile, in quanto è sempre possibile trovare un esempio di qualcosa di osservabile (direttamente) e di qualcosa di non osservabile (direttamente): una sedia è osservabile, una particella elementare non lo è. Si faccia però attenzione: dalla non osservabilità della particella elementare Van Fraassen non conclude affatto alla sua non realtà, quanto al fatto che si deve sospendere il giudizio intorno a tale questione. Solo ciò che è osservabile direttamente è importante, mentre sul resto l'empirista costruttivo è «agnostico». Si tratta però di vedere se effettivamente l'osservabilità diretta sia una funzione delle caratteristiche fisiologiche dell'osservatore; con questo si passa al secondo punto dell'obiezione di Van Fraassen a Maxwell. Van Fraassen sottolinea che noi non consideriamo fragili il pestello e il mortaio solo in base al fatto che potrebb~ esserci un gigante per il quale i due oggetti sono effettivamente fragili. Né consideriamo portatile l'Empire State Building in base al fatto che sempre lo stesso gigante potrebbe trasportarlo. Il pestello e il mortaio non sono fragili, per noi; e l'Empire State Building non è portatile, per noi. Questo è ciò che deve interessare. Analogamente, ciò di cui dobbiamo tener conto è che la particella elementare non è, per noi, osservabile direttamente: la scienza di cui stiamo discutendo è la scienza fatta da noi, esseri aventi caratteristiche fisiologiche ben precise, e non la scienza che potrebbe essere fatta da esseri con caratteristiche fisiologiche diverse. Quindi, conclude Van Fraassen, si può anche accettare che ci sia dipendenza dell' osservabilità dalle caratteristiche fisiologiche, ma questo non riguarda la scienza di cui stiamo parlando e quindi non può essere un argomento valido contro la separazione tra osservabile e non osservabile. In base a queste considerazioni, si deve ritenere osservabile la scatola che viene chiamata «ricevitore VHF » e non le onde elettromagnetiche ad alta frequenza che essa permetterebbe di osservare. Non è necessario un criterio filosofico per demar-
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
care ciò che è osservabile da ciò che è teorico: la theory-ladenness non crea alcun problema - l'osservazione del ricevitore VHF può benissimo essere carica di teoria - visto che quello che interessa è demarcare osservabile da non osservabile, e questa demarcazione è del tutto interna alla nostra scienza. Arrivato a questo punto, Van Fraassen passa a mostrare che è fallace il tipico argomento del realista sulle teorie, ossia l'inferenza alla miglior spiegazione, secondo cui inferire la verità di una teoria dal fatto che descrive nel modo migliore l' osservabile comporta anche che esista effettivamente quello di cui essa parla nel dominio del non osservabile. Ma, obietta Van Fraassen, tale inferenza si basa su una semplice abitudine psicologica derivante dalla trattazione di casi quotidiani che con la scienza non hanno nulla a che fare. È perfettamente lecito inferire l'esistenza del topo (che potrebbe essere osservato) dal fatto che si sentono dei rumorini dentro il muro: questa è una spiegazione migliore di quella che postula un fantasma come causa dei rumorini. Non è però lecito estendere un'abitudine quotidiana alla pratica scientifica; nella fattispecie, non si può argomentare nello stesso modo a livello della fisica inferendo l'esistenza della particella elementare (non osservabile) dalle tracce che lascia in una camera a nebbia. Tuttavia, se l'inferenza alla miglior spiegazione non è un buon argomento per la verità delle teorie, e quindi per l'esistenza dei non osservabili implicati, essa offre una buona struttura argomentativa a favore di qualcosa di più debole, ossia a sostegno della teoria più adeguata dal punto di vista empirico a salvare un dato insieme di fenomeni osservabili. Quindi, dal successo empirico di una teoria possiamo inferire la sua adeguatezza empirica e non la sua verità. D'altro canto, i sostenitori dell'inferenza alla miglior spiegazione, intesa come spiegazione vera, debbono porre il solito vincolo: non ci possono essere descrizioni equivalenti dello stesso ambito fenomenico. In effetti per i realisti non ci sono mai due descrizioni equivalenti in quanto l'equivalenza sull' osservabile è spezzata dalle implicazioni non osservabili. In altri termini, anche se due teorie affermano le stesse cose su ciò che è osservabile, affermano cose diverse su ciò che non è osservabile (a meno che non siano la stessa teoria). Ma tutto questo è negato dall'empirismo costruttivo, in quanto solo ciò che è osservabile è importante, essendo reale. Pertanto i realisti che fanno uso dell'inferenza alla miglior spiegazione e si trovano davanti a casi di equivalenza empirica - che però essi negano - non possono risolverli altrimenti che ricorrendo a un argomento capzioso: date due teorie equivalenti rispetto all' osservabile, ritengono che una sia vera in quanto già a priori hanno deciso che è quella che spiega meglio. La scelta non viene fatta sulla base della miglior spiegazione dell' osservabile, che è uguale per entrambe, ma sulla base di credenze a priori. 56 56 Sull'interpretazione dell'equivalenza empirica proposta da Van Fraassen si vedano i lavori
di Laudan e Leplin, 1991; Hoefer e Rosenberg, 1994.
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
Il problema dell'equivalenza empirica si pone però anche per un empmsta costruttivo: come scegliere fra due teorie entrambe empiricamente corrette rispetto all'osservabile? Van Fraassen non si sottrae a questo problema, ma lo affronta non più in termini epistemologici, bensì in termini pragmatici. Infatti, la differenza fra due teorie empiricamente equivalenti non può certo giocarsi sul piano della loro adeguatezza empirica quanto sul piano pragmatico relativo a ciò che esse si impegnano ad accettare. Quando si analizza l'accettazione di una teoria, ci si rende conto che, sul piatto della bilancia, oltre a una credenza di tipo empirista («Si deve accettare la teoria che è più adeguata empiricamente»: dimensione epistemica dell' accettazione), si mette anche ciò che questa credenza comporta (la dimensione pragmatica dell'accettazione). Infatti, sottolinea Van Fraassen, accettare una teoria significa anche impegnarsi nel programma di ricerca che essa implica e, inevitabilmente, anche nella particolare esplicitazione di una serie di giudizi («È semplice», «È matematicamente elegante», «Comporta un'unificazione», ecc.) che non hanno nulla a che fare con la sua adeguatezza empirica. In definitiva, nell'accettare una teoria non ci si limita a considerare la relazione teoria/mondo; entrano in gioco anche questioni legate al modo in cui essa è formulata, al suo uso e alla sua utilità, nonché a ciò che promette. Concludendo, una teoria scientifica non è altro che una struttura formalizzata grazie alla quale è possibile costruire modelli che «salvano i fenomeni» osservabili (direttamente). Nulla si può dire sull'esistenza di eventuali non osservabili di cui la teoria parla e non c'è alcun buon argomento a favore della sua verità. La sua accettazione, oltre ad avere una dimensione epistemica di tipo empirista, ha, inevitabilmente, una dimensione pragmatica. 2) I.:antirealz'smo fenomenologico di Cartwright
Nel 1983, Nancy Cartwright diede alle stampe una raccolta di saggi dal titolo ambiguo e provocatorio: How the laws o/ physics lie. La Cartwright chiarisce fin dall'inizio che con il termine «fenomenologico» non intende ciò che intendono i filosofi, bensì quello che intendono i fisici, ossia ciò che direttamente si riferisce ai risultati sperimentali. Di conseguenza, la differenza fra leggi teoriche, o fondamentali, e leggi fenomenologiche è da interpretare come differenza fra leggi che in un qualche modo governano la trattazione fisica del mondo e leggi che descrivono ciò che effettivamente si apprende dagli esperimenti e dalle osservazioni. Ebbene, la tesi principale della Cartwright è che le leggi fondamentali non sono vere, mentre lo sono le leggi fenomenologiche. L'antirealismo sostenuto dalla filosofa americana, che ha ottenuto la cattedra che fu di Popper alla London School of Economics, è un antirealismo sulle teorie e non un antirealismo sulle entità. Tre sono gli argomenti che la Cartwright avanza a favore della sua posizione: r) quando si spiega attraverso modelli a leggi di copertura, si spiega sempre o ceterzs paribus, o attraverso concause, o attraverso approssimazioni; 2) l'utilizzazione di modelli idealizzanti comporta non una spiegazione ma un simulacro
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
di spiegazione; 3) l'inferenza alla miglior spiegazione non è un valido argomento per la verità delle leggi teoriche. Cominciamo dal primo problema. Spiegare attraverso un modello a leggi di copertura, sia questo N-D, S-D, o S-I, per un realista significa sempre rendere conto di ciò che c'è (il fatto da spiegare), in temini veri, ossia ricorrendo a leggi vere. Ma «affermare la verità di una teoria» e «spiegare tramite una teoria» sono due cose diverse, come anche Van Fraassen sostiene. Si potrebbe argomentare in favore della loro equivalenza solo ricorrendo all'inferenza alla miglior spiegazione, ma questo argomento è rifiutato anche dalla Cartwright. In realtà, che cosa ci dice la legge fondamentale? Non certo come sono i fatti, come vorrebbero i realisti che sostengono la « fatticità » delle leggi teoriche. I fatti non sono come li descrive la legge: questa non parla di fatti reali, ma di fatti idealizzati. In natura non vi è un corpo perfettamente sferico, un conduttore infinito, una buca di potenziale quadrata, ma situazioni del tutto diverse. Pertanto, se si interpretano le leggi fondamentali come delle descrizioni, non si può non concludere che sono false. Consideriamo la legge di Snell. Essa permette di conoscere l'angolo di rifrazione di un raggio di luce incidente con un dato angolo su un mezzo ottico. Questa legge non soddisfa la fatticità, come vorrebbero i realisti. Essa è vera solo ceteris paribus, ossia considerando vero solo ciò di cui essa parla: è vera solo per mezzi isotropi, ma in natura è difficile, se non impossibile, trovare mezzi otticamente isotropi. Quindi la legge di Snell vale solo per fenomeni che in natura non ci sono e quindi, come tale, è falsa. Inoltre, quando si tenta di spiegare un fenomeno reale questo non è mai nella realtà afferrabile da una sola legge fondamentale. Supponiamo di avere un corpo carico. Per descrivere la sua interazione con un altro corpo carico si usa la legge di Coulomb, ma la si usa, di nuovo, ceteris paribus, ossia intendendo che solo ciò di cui si parla è vero. Tuttavia, oltre a essere carico, il corpo è anche massivo e quindi entra in gioco l'interazione gravitazionale. Si potrebbe obiettare che in questo caso basta sommare vettorialmente la forza di Coulomb e quella di Newton e così ottenere una forza risultante che spiega il comportamento nel suo complesso. Questa è una rozza idealizzazione, sostiene la Cartwright, perché la natura non somma affatto vettorialmente. Se, da un lato, si approda alla conclusione che le leggi universali fondamentali sono false, dall'altro, si ha che, sia nella fisica sia a livello quotidiano, vi possono essere leggi fenomenologiche particolari vere. La Cartwright porta l'esempio delle camelie che piantò nel giardino di casa sua e che poco dopo morirono. Perché morirono? La spiegazione stava nel fatto che il terreno era troppo caldo. Questa è una spiegazione vera, ma non coperta da una legge universale. Quindi, da un lato, ci sono spiegazioni che ricorrono a leggi di copertura universali false e, dall'altro, ci sono spiegazioni che ricorrono a regole fenomenologiche vere ma non universali.
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
Di solito, per i realisti le leggi fenomenologiche sono vere perché discendono da leggi fondamentali vere. Questo modo di pensare, che la Cartwright chiama « rappresentazione generico-specifico», è fallace. Noi non inferiamo mai leggi fenomenologiche dalle leggi fondamentali in modo strettamente deduttivo, ricorrendo a condizioni iniziali. In realtà, le deriviamo, se le deriviamo, grazie ad approssimazioni che molte volte non hanno nulla a che fare con ciò che viene descritto, ma con scelte di comodo. E sono proprio queste scelte di comodo, aggiunte via via che operiamo la costruzione delle leggi fenomenologiche, che ci fanno comprendere come esse non possano essere inferite deduttivamente dalle leggi fondamentali. Di conseguenza, le leggi fenomenologiche e le leggi fondamentali non descrivono affatto lo stesso ambito empirico: ciò di cui trattano le prime è qualcosa di diverso da ciò di cui trattano le seconde. Questo è una idealizzazione, quello è precisamente ciò che si esperimenta o si osserva. Ne deriva pure che, contrariamente a quanto vorrebbe un realista, le leggi fenomenologiche sono molto più precise delle leggi fondamentali. Che cosa sono, dunque, le leggi fondamentali? Null'altro che buoni principi organizzatori che permettono di sistemare in un unico quadro matematico situazioni diverse. La fisica, sentenzia la Cartwright, è un teatro che rappresenta la finzione della vita reale, non la vita reale. Insomma le leggi fondamentali, costruite dai fisici teorici, sono buoni strumenti che il fenomenologo usa per ricavare, non deduttivamente, delle leggi fenomenologiche con cui descrivere precisamente i dati forniti dal fisico sperimentale. La verità e la realtà non si trova dalla parte delle leggi fondamentali, ma dalla parte delle leggi fenomenologiche. Come possono essere allora interpretate le spiegazioni che fanno riferimento a leggi di copertura? Innanzi tutto, quando si usano le leggi fondamentali per spiegare, in realtà si spiegano eventi e fenomeni che sono modelli finzionali degli eventi e dei fenomeni reali, descritti invece con le leggi fenomenologiche. Quindi le leggi fondamentali sono vere rispetto ai fatti del modello, ma false rispetto ai fatti reali. Eppure i modelli sono importanti, in quanto permettono di ricondurre a un unico quadro matematico le leggi fenomenologiche. Certamente alcune proprietà delle cose di cui parla il modello sono proprietà delle cose reali, ma da questo non discende affatto che la spiegazione che esso offre sia vera. I modelli offrono spiegazioni che delle spiegazioni vere hanno solo la forma, non certo il contenuto; nei termini della Cartwright, essi offrono un «simulacro di spiegazioni». Anche per questo la fisica è considerata un teatro dove personaggi finzionali simulano personaggi reali: le leggi fondamentali non governano la realtà, ma l'apparenza della realtà. Con una tale concezione, la Cartwright, d'accordo con Van Fraassen, non può che rifiutare l'inferenza alla miglior spiegazione. In questo si trova perfettamente d'accordo con quanto era stato detto da Duhem a proposito della sottodeterminazione teorica e con la critica basata sulla storia della scienza proposta da Laudan (1981) contro il realismo convergente. Tuttavia, anche la Cartwright trova che il modello argomentativo offerto dal66
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
l'inferenza alla miglior spiegazione possa essere utile se opportunamente ripensato. Prima di arrivare a questo punto conviene precisare in che cosa consista il suo causalismo ricordando che le leggi fondamentali della fisica possono dividersi in leggi di associazione, che possono essere deterministiche (come F = ma) o indeterministiche (come quelle della meccanica quantistica), e in leggi causali in cui compare esplicitamente, anche se in termini formali, la parola «causa». Contro molti filosofi della scienza, per esempio B. Russell (1912-1913), che sostengono che ogni principio causale può essere ridotto a una legge di associazione, la filosofa americana sostiene l'irriducibilità e addirittura la preminenza epistemologica di tali principi. Sono proprio questi, infatti, che permettono di separare le strategie buone da quelle cattive. Supponiamo che per allungare la vita qualcuno ci consigli una polizza d'assicurazione mentre qualcun altro ci consigli di smettere di fumare. Seguiremo la seconda strategia, in quanto riconosciamo esservi sottese delle buone ragioni dovute a principi causali. La preminenza dei principi causali non è dovuta solo al fatto che, grazie a loro, possiamo distinguere le strategie buone dalle strategie cattive, ma anche al fatto che è proprio grazie a loro che possiamo riconoscere come reali certe entità teoriche non osservabili direttamente. Supponiamo, esemplifica la Cartwright, che si abbia una gocciolina carica in campo elettrico. È possibile spruzzarla di elettroni o di protoni e quindi osservare come nei due casi muti in modo diverso la sua velocità. Dal cambiamento di velocità (l'effetto) è possibile inferire l'esistenza della sua carica (la causa), anche se non la si vede direttamente. Imputare alla carica la causa della variazione della velocità è sicuramente una soluzione migliore che imputarla al lavoro di piccoli gnomi che abitano dentro la gocciolina. In altri termini, invece di inferire la miglior spiegazione, è possibile in/erz're la miglior causa. Questo argomento fa comprendere come la Cartwright, a differenza di Van Fraassen, non si astenga affatto dall'emettere giudizi intorno alla realtà dei non osservabili, ma ne sostenga l'esistenza in base ai loro effetti osservabili. Non si vede la particella elementare che ha lasciato la sua traccia in una camera a nebbia, ma da tale traccia se ne inferisce l'esistenza. Può anche non essere vera la teoria causale che collega la traccia con la particella elementare, ma questa è la miglior inferenza che possiamo proporre. Dunque, la Cartwright, pur essendo un'antirealista sulle teorie è una realista su certe entità in base al fatto che è una causalista. In tal modo anche l'argomento della sottodeterminazione teorica può essere affrontato. Infatti, anche se si hanno più teorie che rendono conto di uno stesso ambito fenomenico (l'effetto) ricorrendo a cause diverse, l'inferenza alla miglior causa consentirà di dire, in base a certi criteri (che peraltro la Cartwright non specifica) qual è la causa che, in modo migliore, è imputabile di quell'effetto. Da ciò seguirà che quella causa è reale. Le tracce in una camera a nebbia possono essere lasciate da un angelo minuscolo o da un positrone, ma il fisico sancirà che il positrone è imputabile in modo migliore della loro presenza, e così concluderà intorno alla sua
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
esistenza. Quindi, anche se le leggi teoriche sono false e al massimo governano una descrizione idealizzata, è possibile argomentare sull'esistenza di certe entità teoriche in base al loro essere la miglior causa di certi effetti osservabili direttamente. 3) Il realismo come manipolabilità di Hacking
La posizione di I. Hacking (1983) esemplifica una terza anima del dibattito sul realismo, ossia quella che abbandona la discussione a livello delle rappresentazioni scientifiche per portarla a livello degli esperimenti. In effetti, negli ultimi anni all'interno della comunità dei filosofi della scienza si è riacceso l'interesse per la componente sperimentale nel tentativo di capire che cosa significhi fare un buon esperimento scientifico.57 Hacking si è inserito in questo filone di rinnovato interesse per un aspetto trascurato dell'impresa scientifica mettendo in luce non tanto la struttura dell'esperimento in quanto tale, o il suo ruolo nel controllo della teoria, quanto come esso sia un'importante carta a favore del realismo. Così, accanto a riflessioni magistrali su che cosa significhi dsservare attraverso un microscopio, e in senso lato attraverso un apparato sperimentale, egli ha proposto una particolare forma di realismo sulle entità che si basa su una certa caratteristica del «fare esperimenti», precisamente sul fatto che alcune proprietà di determinate entità possono essere usate per conoscere sperimentalmente altre proprietà di altre entità, o di loro stesse. Prima di esaminare più da vicino questa posizione epistemologica, occorre richiamare quella che Hacking chiama la sua «antropologia filosofica», imperniata sulla tesi secondo cui l'uomo non è un homo faber, ma un homo depictor. Gli esseri umani sono, innanzi tutto, dei rappresentatori, dei costruttori di rappresentazioni di ciò che li circonda. Solo dopo che si sono elaborate delle rappresentazioni, che non sono mai singoli enunciati ma sempre intere teorie, ci si chiede se queste corrispondano al mondo oppure no, e quindi solo in un secondo momento entra in campo il problema della realtà. Questo non significa affatto cadere in una qualche forma di idealismo. Per Hacking il mondo c'era anche prima delle rappresentazioni, ma solo dopo averle costruite, in modo da catturarlo, è possibile esprimere giudizi intorno alla loro «realtà, irrealtà, verità, falsità, fedeltà, infedeltà». Qualificare come reale una rappresentazione è sempre un passaggio successivo alla sua costruzione. Secondo Hacking, il dibattito sul realismo scientifico è stato finora condotto all'interno delle rappresentazioni, ma si è rivelato un dibattito sterile in quanto è impossibile trovare il collegamento che permette di passare dalla rappresentazione al concetto di realtà. In base a questa osservazione, Hacking propone di riprendere il dibattito sul realismo all'interno del /are, dell'intervenire. In ciò consiste lo spostamento: discutiamo di filosofia della scienza, e in particolare di realismo scientifico, non più in relazione al «rappresentare il mondo», ma in relazione all'« inter-
57 Sull'argomento si vedano Franklin, 1981, 1989, 1990; Galison, 1987; Boniolo, 1992.
68
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
venire nel mondo». Insomma per Hacking, che riprende ironicamente una celebre affermazione di Marx, il fatto fondamentale non è capire il mondo, ma cambiare il mondo. Se l'esperimento cambia il mondo, esso deve interessare non tanto come controllo, quanto come modo di interagire con il mondo, anche «costruendo» fenomeni che prima non c'erano. La «costruzione dei fenomeni» di cui parla Hacking non ha nulla a che fare con la costruzione intesa in senso idealistico. Si noti, fra l'altro, che Hacking usa, esattamente come la Cartwright, il cui lavoro egli apprezza e più volte richiama, il termine «fenomeno» non secondo il significato filosofico, ma nell'accezione dei fisici, ossia come qualcosa che c'è e che può venir descritto. Per Hacking, il fisico sperimentale crea dei fenomeni nel senso che mette in evidenza certi aspetti del mondo naturale che non potrebbero essere visti senza « ripulire» quella parte di mondo dalle perturbazioni. Per esempio, l'effetto Hall è l'effetto, scoperto da E.H. Hall nel 1879, per cui quando passa corrente in un conduttore immerso in un campo magnetico si ottiene un potenziale perpendicolare al campo e alla corrente. Hall ha «costruito» tale fenomeno nel senso che ha «costruito» le condizioni sperimentali atte a rilevarlo. Ma in natura non c'è nulla di analogo. In natura ci sono sicuramente conduttori percorsi da correnti e immersi in campi magnetici; l'effettiva situazione è però tale che quasi mai si ottiene l'effetto Hall nella sua purezza. Questo è di solito mescolato con altri effetti che impediscono la sua osservazione in quanto tale. In sostanza, sostiene Hacking, il mondo è complesso e i fenomeni che si possono rilevare senza particolari procedure di schermaggio degli effetti perturbativi sono veramente pochi: le stelle, i pianeti, le maree, ecc. Tutti gli altri, l'effetto Hall, l'effetto Faraday, l'effetto Josephson, l'effetto Zeeman, ecc., sono osservabili solo quando il fisico li «costruisce» creando le condizioni sperimentali adatte. È per questo motivo che la pratica sperimentale è difficile. Se i fenomeni fossero come le more, scherza Hacking, potremmo coglierli senza difficoltà, ma così non è. In conclusione, i fenomeni della fisica non sono qualcosa che è a po~tata di mano, bensì artefatti dovuti ad abilissimi fisici sperimentali che ricreano ogni volta le condizioni sperimentali atte a permettere l'osservazione di quegli stessi fenomeni. Quindi i fisici sperimentali non sono dei semplici osservatori passivi, ma degli osservatori abili, interessati e attenti che con la loro capacità pratica riescono a evidenziare ciò che in quanto tale in natura non c'è. Come può la pratica sperimentale dirci qualcosa a proposito della realtà? Ebbene, fare esperimenti significa cercare di conoscere qualcosa attraverso qualcos'altro. Quando vogliamo appurare la costituzione di un certo materiale possiamo farlo colpendolo con particelle e osservando come varia la loro distribuzione e la loro energia dopo l'urto. In pratica non si fa altro che usare delle proprietà causali di certe entità, le particelle, per studiare un altro fenomeno, la struttura di un dato bersaglio. Questo significa che si allestisce un apparato sperimentale, in questo caso un accelera-
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
tore di particelle lineare, per poter manipolare le particelle in modo che abbiano una certa energia iniziale, che colpiscano il bersaglio con un certo angolo, ecc. Poi, dalle proprietà causali delle particelle, studiando come sono diffuse, si inferiscono le proprietà del bersaglio. Poiché è possibile manipolare solo qualcosa di reale, come accade per le sedie e i tavoli, si deve concludere che le particelle sono reali. A questo proposito, si noti che è possibile conoscere certe proprietà causali della stessa entità che si usa per metterle in evidenza. Supponiamo che si conoscano certe proprietà causali degli elettroni e che queste siano usate per rilevare certi fenomeni. Ebbene, è possibile usare le stesse proprietà causali degli elettroni per rilevare anche altre proprietà più profonde degli stessi elettroni. In questo caso le prime sono reali in quanto manipolabili, le altre sono proprietà che potrebbero diventare reali qualora diventassero a loro volta manipolabili. Questa osservazione permette di cogliere un fatto estremamente importante. L'argomento dell'esperimento a favore del realismo delle entità è un argomento che crea una netta separazione fra le entità. Se si seguisse l'approccio della Cartwright, si dovrebbe dire che un'entità esiste se ha proprietà causali che arrivano a essere conosciute attraverso gli effetti prodotti. In questo caso i bosoni intermedi sono reali in quanto causa di tracce. Invece Hacking impone delle condizioni più restrittive: i bosoni intermedi sono dei buoni candidati a diventare entità reali, ma non sono tali finché non possono essere manipolati, ossia finché non possono essere usati per indagare altri fenomeni. È quindi il loro uso a renderli reali, non le loro proprietà causali. Le proprietà causali di un'entità sono una condizione necessaria per la sua realtà, non una condizione sufficiente. La sufficienza è rappresentata dalla manipolabilità. Con un'impostazione di questo genere, la realtà di un'entità non ha nulla a che fare con la realtà della teoria cui è legata. In altri termini, anche per Hacking il realismo sulle entità non implica affatto il realismo sulle teorie, in quanto l'argomento che l'implicherebbe, cioè l'inferenza alla miglior spiegazione, non è valido. Inoltre, dire che un elettrone è reale significa impegnarsi sulla realtà, owero sulla manipolabilità, degli elettroni presenti in un certo momento, cioè degli elettroni che si stanno usando in un certo momento per fare un certo esperimento. Invece sostenere la realtà della teoria sull'elettrone implica impegnarsi sulla realtà anche degli elettroni futuri. Vi è quindi una sorta di «contrasto sperimentale» fra il realismo sulle entità e il realismo sulle teorie. Si noti, tuttavia, che Hacking non afferma che la realtà delle entità manipolabili sia dovuta all'apparato strumentale che permette di manipolarle, quanto che progettiamo l'apparato in base alle proprietà causali, che sappiamo essere reali, di quelle entità che poi esso dovrà far comportare in un certo modo. Quindi la costruzione dell'apparato sperimentale è successiva al riconoscimento della realtà delle entità che esso dovrà permettere di manipolare in un certo modo. Inoltre, sottolinea Hacking, non è vero che in tal modo si sostiene che è reale solo ciò che è 70
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
manipolabile, quanto che dell'infinita estensione della realtà noi conosciamo solo una parte: quella che riusciamo a manipolare. Insomma, «siamo assolutamente convinti - scrive Hacking - della realtà degli elettroni allorché ci mettiamo a costruire metodicamente- e abbastanza spesso riusciamo a costruire - nuovi tipi di dispositivi che impiegano svariate proprietà causali risapute degli elettroni per interferire in altre parti, più ipotetiche, della natura ».58 Ma questo significa che il miglior argomento a favore del realismo delle entità non ci è dato dalla filosofia, o dalla fisica, ma dall'ingegneria, ossia dalla nostra capacità di manipolare certe entità. E le entità teoriche che non siamo mai riusciti a manipolare? «Sono state degli stupendi errori», conclude Hacking. 4) I.:atteggiamento antologico naturale di Fine
L'esistenza di una pletora di forme di realismo e di antirealismo ha portato A. Fine (1984, 1986) a formulare una proposta atipica, che intende tenere conto delle critiche al realismo pur non volendo affatto essere una delle numerose specie di antirealismo. La sua proposta, che egli chiama «atteggiamento antologico naturale» (Natura! Ontological Attitute, NOA), 59 è una sorta di post-realismo che si situa fra il realismo e l' antirealismo. Anche Fine muove dalla critica dell'inferenza alla miglior spiegazione, mostrandone però un aspetto nuovo. Di questo argomento si è infatti preso in considerazione finora solo quello che egli chiama il livello base, secondo cui la teoria che meglio spiega un insieme di dati è anche la teoria vera. Oltre a questo livello, ve n'è un altro - denominato livello metodologico - secondo cui solamente il realismo sarebbe in grado di spiegare il successo che ha la pratica metodologica scientifica. In effetti, quando Popper (1969, m edizione) critica lo strumentalismo usa un argomento che si basa proprio su tale variante metodologica dell'inferenza alla miglior spiegazione. Secondo Popper, lo strumentalismo non è in grado di spiegare la differenza fra regole di calcolo e teorie scientifiche, o, meglio, fra il collaudo delle prime e il controllo empirico delle seconde volto al tentativo di falsificarle. Lo strumentalismo fallisce per il semplice motivo che trascura l'interesse dello scienziato verso la verità a cui le teorie tendono e verso la realtà che esse asintoticamente cercano di descrivere. Invece la versione del realismo critico basata sul falsificazionismo riesce a rendere conto di tutto ciò. Quindi il realismo critico è la miglior spiegazione che si possa offrire per rendere conto della metodologia scientifica e dei progressi della scienza. Dal momento che, per mostrare la fallacia del livello base dell'inferenza alla miglior spiegazione, è sufficiente secondo Fine usare le controargomentazioni pro«Noah». Da NOA deriva il temine «NOAer» (da pronunciarsi come «knower»), cioè colui che accetta la NOA.
58 Hacking, 1983, trad. it., p. 314. Per una discussione del concetto di « manipolabilità » in Hacking, si veda Dorato, 1988. 59 Fine consiglia di pronunciare NOA come
71
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
poste da Laudan (1981), egli si concentra sul livello metodologico, peraltro sostenuto anche da Boyd (1981 e 1984). La critica di Fine è estremamente semplice, ma al tempo stesso estremamente rilevante per una più approfondita comprensione delle argomentazioni a favore del realismo. Secondo l'argomento metodologico, il realismo è la miglior spiegazione del successo empirico delle teorie e del progresso scientifico. Tuttavia, questo può essere affermato solo introducendo l'ipotesi che le teorie siano approssimazioni alla verità e che il progresso scientifico sia un processo di avvicinamento alla realtà. Ma in tal modo si introduce fin da principio una metaipotesi realista sulla relazione teoria/mondo. A proposito della versione metodologica popperiana dell'inferenza alla miglior spiegazione, vale la pena notare che il filosofo austriaco ne ha dato una diversa formulazione quando ha trattato il problema della scelta fra due teorie rivali. Segnatamente, secondo Popper, si sceglie la teoria che è meglio corroborata e quindi che è più verisimile. Tuttavia, non appena si argomenta in questo modo, si può essere accusati - e Popper lo fu - di criptoinduttivismo. 60 Infatti, inferire alla miglior spiegazione scientifica, o alla migliore spiegazione metodologica, o alla miglior teoria corroborata, comporta sempre partire dall'osservazione di n casi (fattuali o metodologici) e inferire una conclusione che si vorrebbe valere per tutti i casi. Questo è un problema per un autore come Popper, che ha strenuamente lottato contro ogni forma di induttivismo. D'altro canto se il realismo non può essere argomentato in maniera stringente, non lo può, secondo Fine, nemmeno l' antirealismo. A questo punto, o si lascia da parte l'intera faccenda, oppure si cerca una terza via. Tuttavia - ed è questo il problema a cui Fine tenta di dare una soluzione - dove trovare questa terza via? La risposta fornita è estremamente « minimalista », come egli stesso riconosce. Dalla vita di tutti i giorni abbiamo imparato a non dubitare dell'evidenza data dai sensi: non dubitiamo delle sedie, dei tavoli, ecc. Analogamente non dubitiamo di ciò che ci dice la pratica scientifica intorno a entità come gli elettroni, i quark, ecc., perché tale pratica è estremamente rigorosa essendo basata su continui e ripetuti controlli sperimentali incrociati. Certo, uno strumentalista, argomenta Fine, potrebbe dire che sono tutte finzioni, ma a questa obiezione è possibile replicare che lui stesso - lo strumentalista - è una finzione. Esattamente come si pensa che lo strumentalista non sia una finzione, è possibile affermare che non lo è ciò che la scienza, in modo estremamente cauto, afferma intorno alle entità. Tra ritenere finzione lo strumentalista stesso e tutto ciò che afferma la scienza e ritenere reale lo strumentalista e i risultati scientifici, Fine sceglie, e consiglia, questa seconda possibilità. Tale «linea alla buona» (homely line), come egli la definisce, può dunque
6o Per questo tipo di critiche si veda, per esempio, Niiniluoto, 1982.
72
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
essere sintetizzata come segue: solo per un realista è possibile accettare le evidenze dei propri sensi e nello stesso modo accettare anche i risultati della scienza; dunque io (Fine) sono realista (e anche tu dovresti esserlo!). Questa tesi minimalista, secondo Fine, si pone in una sorta di terreno neutrale fra realismo e antirealismo. A questo nocciolo centrale, che costituisce il fulcro dell'atteggiamento antologico naturale, cioè della NOA, il realista e l'antirealista aggiungono qualcosa. In particolare, l' antirealista aggiunge qualcosa che lo porta a essere di volta in volta un idealista, un fenomenalista, uno strumentalista, un convenzionalista, un costruttivista, un pragmatista. In altri termini, a seconda del tipo di analisi al termine «verità» che viene aggiunta si può diventare pragmatisti, strumentalisti o convenzionalisti. Invece, a seconda del tipo di analisi ai concetti, che viene aggiunta, si può diventare idealisti, costruttivisti o fenomenalisti. Anche il realista aggiunge qualcosa: nella fattispecie solo un termine, seppur con profonde implicazioni, ossia il termine «realmente». Se per il sostenitore della NOA la proposizione che crede «vera» è «Ci sono realmente gli elettroni», per il realista bisogna credere vera la stessa proposizione a cui però aggiunge il termine «realmente», cioè che è vera la proposizione «Realmente ci sono realmente gli elettroni». In definitiva, l'aggiunta dell' antirealista è «interna» alla posizione centrale, mentre l'aggiunta del realista è «esterna» in quanto implica l'esistenza del mondo e di certi suoi costituenti. Dunque la NOA, per Fine, è una sorta di posizione minimalista che tutti implicitamente dovrebbero accettare, siano essi antirealisti o realisti, ed è la posizione migliore dal momento che essa libera il campo dalle argomentazioni a favore del realismo o dell' antirealismo. Poiché la NOA parla di «verità» si crea però il problema di capire che cosa voglia dire «verità» in questo contesto, anche se il termine è inteso in senso minimalista. Ebbene, Fine la intende in senso strettamente referenziale: se una teoria implica un'entità teorica, dire che la teoria è vera significa dire che l'entità teorica esiste nei termini in cui ne parla la teoria. Si potrebbe obiettare che, cambiando la teoria, nascerebbero dei problemi per la stabilità dei riferimenti. A questa replica Fine prontamente ribatte accettando le tesi di Kuhn e sostenendo che per la NOA questo non è assolutamente un problema in quanto una nuova teoria comporta un nuovo riferimento. Questo è quello che conta, almeno per questo approccio che introduce per la prima volta il termine « minimalista » nella filosofia della scienza. VI
·
CONCLUSIONI
Ricostruire, come qu1 s1 è tentato di fare, alcuni percorsi della filosofia della scienza degli ultimi decenni può rivelarsi un'impresa meno difficile del previsto per chi è nelle attuali condizioni storiche. Da un lato, infatti, si è alla fine di un secolo e quindi è possibile tirare qualche somma. Dall'altro, si è anche forse al termine di 73
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
un ciclo. Il Novecento si è aperto con la fine di un modo di fare filosofia della scienza che aveva avuto per protagonisti fisici-filosofi quali H. Poincaré, P. Duhem, H. Hertz, L. Boltzmann, E. Mach. Si è poi verificato quel grande sovvertimento culturale rappresentato dal neopositivismo che, nelle sue molteplici espressioni, ha informato di sé gli ultimi settant'anni della filosofia della scienza sia con le sue tesi sia con le due principali tradizioni critiche che ne hanno avuto origine: da una parte, l'alternativa rappresentata dalla filosofia della scienza popperiana e post-popperiana, il cui vessillo è l'edizione inglese del 1959 de La logica della scoperta scientz/ica; dall'altra, la ripresa americana di alcune tematiche empiriste depurate grazie soprattutto al lavoro di Quine, documentato in I due dogmi dell'empirismo del1951 6 I e in Parola e oggetto del 1960. È doverosa a questo punto una digressione su Quine. Nell'introduzione a questo saggio si è detto che, insieme a Popper, Quine è da ritenere uno dei maggiori filosofi della scienza contemporanei. Eppure finora non si è spesa una riga per parlare della sua concezione. Sembrerebbe una contraddizione, oppure una lacuna. In effetti si potrebbe parlare di lacuna se non fosse che il pensiero di Quine è piuttosto eccentrico al taglio storiografico adottato in questa ricognizione, anche se in rapporto a temi come il realismo e la sottodeterminazione tener conto della sua posizione è importante per avere un quadro completo del dibattito e delle ricerche condotte in questi ultimi decenni all'interno della comunità dei filosofi della scienza. Sia quindi consentita una breve, e ovviamente non esaustiva, sintesi del cammino teorico di questo pensatore. 62 Il percorso filosofico di Quine prende le mosse dalla riflessione critica su due cardini dell'empirismo logico. Il primo è la distinzione fra verità analitiche, aventi a che fare con i significati (nell'accezione fregeana di Sinne), e verità sintetiche, aventi a che fare con i fatti. Per Quine questa distinzione non sussiste, in quanto le proposizioni analitiche sarebbero tali per la sinonimia presente fra i termini che vi compaiono, ma non è possibile rendere conto in maniera soddisfacente del termine « sinonimia »; soprattutto non è possibile senza cortocircuitarlo con la nozione di analiticità. Inoltre, che cosa sono i significati? Per i mentalisti, sono qualcosa di reificato. Ma questa tesi deve essere abbandonata per far spazio a un altro approccio, legato anche alla dissoluzione del secondo cardine dell'empirismo, quello della riduzione del significato di una proposizione singola a eventi sensoriali. Infatti, secondo Quine, che riprende - allargandola al campo semantico - la tesi olistica di Duhem, non si deve parlare del significato di una proposizione isolata, quanto del significato che essa acquista all'interno di un intero sistema concettuale, entro cui proposizioni empiriche e relazioni logiche giocano intercambiabilmente il ruolo nella Storia del pensiero filosofico e scientifico di L. Geymonat (1976), il cap. IX del vol. VII e il cap. IV del vol. IX.
61 Il saggio è raccolto in Quine, 1953. 62 Per approfondimenti sul pensiero di Quine si rinvia a Santambrogio, 1992a. Si vedano anche
74
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
di condizioni e di condizionati. Tale olismo semantico è integrato da una teoria comportamentistica del significato secondo cui esso è dato dal comportamento sociale, e quindi è qualcosa di connesso con la risposta fornita a certi stimoli verbali. Si inserisce in questo contesto la tesi dell'indeterminatezza della traduzione che Quine argomenta tramite il noto esperimento mentale della traduzione radicale. Supponiamo che un linguista si trovi in un luogo dove i nativi parlano una lingua a lui totalmente sconosciuta e quindi debba cominciare a costruire un manuale di traduzione. Questo manuale non può essere realizzato traducendo semplicemente il significato di un termine, in quanto il significato dato dal nativo a un certo termine e il significato ipotizzato dal linguista non sono qualcosa di confrontabile come i quadri di un museo, come vorrebbero i sostenitori di una concezione mentalista del significato. Piuttosto il linguista può procedere alla formazione del manuale applicando il proprio schema concettuale al comportamento verbale dell'indigeno. Questo significa che il manuale sarà costruito, oltre che su tale base oggettiva, su ipotesi interpretative. Ciò che l'indigeno chiama « gavagai », il linguista lo può tradurre con «coniglio». Ma chi assicura che il termine «coniglio» sia coestensivo al termine «gavagai»? Ovviamente nessuno. Forse l'indigeno con «gavagai» indica una parte del coniglio o qualcos'altro che ha a che fare con quell'oggetto. Ne consegue che, sulla stessa base oggettiva, potrebbero essere costruiti manuali diversi dipendenti dalle ipotesi interpretative alternative che potrebbero essere adottate. Inoltre per il linguista il significato di « gavagai » non sta nel significato del singolo termine «coniglio», ma nell'intero manuale che, permettendo la traduzione della lingua del nativo nella sua, consente di tradurre « gavagai » con «coniglio». La traduzione è sempre qualcosa di globale e mai qualcosa di puntuale, esattamente come lo sono il significato di un termine o di una proposizione. Da questo esperimento mentale seguono due conseguenze fra loro strettamente correlate. La prima è che la traduzione è indeterminata, visto che non è possibile cogliere il significato esatto di un termine ma solo qualcosa che ha a che fare con il comportamento suscitato da quel termine. La seconda è che la traduzione è sottodeterminata rispetto alla base oggettiva: sono infatti possibili più manuali che rendono conto egualmente bene dello stesso comportamento osservato. Partendo da queste tesi, Quine sviluppa una teoria degli oggetti fisici, ovvero un'antologia, che necessariamente è un'antologia relativizzata alla teoria, intesa come un tutto, che di tali oggetti parla. Come non c'è un referente extra-linguistico del termine « gavagai » individuabile con precisione dal linguista, ma « gavagai » è ciò che così è definito dal suo particolare manuale di traduzione, così l'oggetto fisico non può essere pensato come qualcosa di extra-teorico, ma unicamente nei termini in cui ne parla la teoria fisica al cui dominio appartiene. Tuttavia, in tal modo Quine non abbandona né una concezione realistica, né una nozione di verità; si limita a relativizzarle alla teoria. Già da quest'ultima osservazione segue che non è una qualche teoria filosofica 75
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
a poterei dire qualcosa intorno alla realtà degli oggetti, bensì sono le teorie scientifiche stesse. D'altronde, per Quine, bisogna abbandonare l'idea che vi sia una teoria filosofica, e più propriamente una teoria epistemologica, deputata a legiferare intorno al modo in cui la scienza conosce e intorno a ciò che essa conosce. In realtà è la teoria scientifica che indica la strada all'epistemologia. In questo modo Quine arriva a proporre una epistemologia naturalizzata, all'interno della quale recupera tutti i temi esaminati, basata su una drastica inversione di ruoli fra scienza ed epistemologia: non è più quest'ultima a fondare la prima, ma è la scienza a costituire la base da cui l'epistemologia può e deve muovere i suoi passi. Addirittura, per Quine, anche i problemi epistemologici devono essere risolti all'interno della scienza. Ma allora, qual è il compito dell'epistemologia? È solo quello di studiare il rapporto fra teoria scientifica e stimolo sensoriale o, meglio, quello di analizzare come dallo stimolo sensoriale si passi alla ricchezza della scienza contemporanea. D'altro canto studiare epistemologicamente la relazione fra stimolo e teoria equivale a studiare la stessa relazione da un punto di vista semantico e quindi il problema epistemologico diventa il problema di capire come si apprende un linguaggio, nella fattispecie quello scientifico, a partire da determinate stimolazioni sensoriali. In questo modo l'epistemologia naturalizzata, oltre a dover essere collocata all'interno dell'ambito scientifico, non essendovi nulla come una filosofia esterna alla scienza che discute di questa, deve essere pensata come un ramo della psicologia, naturalmente non « soggettivistica » ma «comportamentale», il cui oggetto è dato dall'analisi della genesi del linguaggio, e in particolare del linguaggio scientifico. Ed è proprio al conseguimento di questo obiettivo che tendono gli sforzi compiuti da Quine negli anni più recenti, come efficacemente testimonia la sua ultima opera intitolata From stimulus to science (1995). 63 Tornando, dopo questa rapida analisi del pensiero di Quine, a una serie di considerazioni conclusive occorre ribadire che l'epistemologia contemporanea è stata caratterizzata da due anime profondamente diverse: quella anglosassone, focalizzata sul metodo, radicalmente antiinduttivista, tesa a un recupero delle idee non scientifiche; quella post-neopositivista statunitense, concentrata sugli aspetti della conferma, del significato, attenta al linguaggio, più formalista. Queste due anime si sono incontrate poco (e le poche volte in cui ciò è accaduto è stato soprattutto per criticarsi), ma avendo avuto origine come due rami dallo stesso tronco hanno in comune una iniziale forte connotazione empirista e/o logicista, che a poco a poco si è stemperata, soprattutto nella pragmatica. Popper era partito con l'idea di un criterio logico di demarcazione, ma è approdato a una metodologia astratta che altro non è, come tutte le metodologie astratte, che una sorta di pragmatica idealizzata. Il sofisticato Lakatos e soprattutto l'icono63 Le varie tesi accennate sono discusse in Quine, 1969, 1980, 19810, 1981b; per una biblio-
grafia specifica su Quine si rinvia a Bruschi, 1986.
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
clasta Feyerabend hanno messo bene in luce questo aspetto: la pratica scientifica reale è altro da ciò che accade nel mondo ideale e «ben educato» della scienza popperiana. Inoltre, grazie alle critiche di Griinbaum, si è pervenuti alla conclusione che il falsificazionismo può risolvere ciò che la logica non è in grado di risolvere solamente ricorrendo alla fiducia pragmatica del ricercatore. Solo in questo modo si può individuare l'insieme delle proposizioni da ritenere corrette e quello delle proposizioni da considerare causa della falsificazione, nonché determinare precisamente le ipotesi ausiliarie ad hoc. Dall'altra parte dell'oceano si era cercato di rinserrare i ranghi dell'empirismo, una volta ripulito dai dogmi. Eppure la speranza di trovare una caratterizzazione logica, o almeno linguistica, per le leggi di natura è naufragata, e l'unico salvagente è apparso quello pragmatico di Goodman, il quale fra l'altro fornisce anche una giustificazione pragmatica al nostro credere nella logica deduttiva. Anche per quanto riguarda la spiegazione sembrava bastassero la sintattica e la semantica, ma ci si è accorti che una risposta veramente completa la si poteva trovare solo e sempre nella pragmatica, come ha evidenziato Van Fraassen. D'altronde, che altro sono le soluzioni che cercano di risolvere l'ambiguità della spiegazione statistica grazie a concetti come quello di rilevanza se non tentativi pragmatici, sia pure formulati tramite il calcolo delle probabilità, di tener conto del contesto reale? Inoltre che dire della questione del realismo? Una questione alla quale non possono certo rispondere un empirista o un realista tradizionali. Il primo non riesce a distinguere in maniera non ambigua l' osservativo dal teorico, come invece desidererebbe; il secondo deve fare i conti con l'inefficacia dell'inferenza alla miglior spiegazione, intesa sia a livello di base sia a livello metodologico. Si è così giunti a proporre livelli di realismo sempre più filosoficamente riduttivi, limitanti, bassi e minimali: riduttivo può infatti essere considerato l'empirismo costruttivo di Van Fraassen, per il quale è reale solo ciò che è osservabile; limitante il fenomenalismo della Cartwright, che elimina del tutto la valenza conoscitiva delle teorie; basso il livello filosofico della soluzione di Hacking, che demanda la questione del realismo all'ingegnere; eccessivamente minimale il livello filosofico della proposta «alla buona» di Fine che, emblematicamente, può essere pensata come una resa. Davvero scoraggiante per chiunque voglia occuparsi di filosofia! Tuttavia accettare tale resa filosofica può comportare di scambiare la fine di un ciclo con la fine del pensiero, una fallacia sempre più diffusa negli ultimi anni. Si è « scoperto » che la metodologia prescrittivista è troppo rigida e idealizzata; che il sapere è senza fondamenti certi; che la razionalità è più ampia di quella deduttiva; che il linguaggio impregna anche ogni tentativo di uscire dal linguaggio. Di qui il passo è stato breve per arrivare alla conclusione che «tutto va bene», che la filosofia è morta, che la scienza è irrazionale. In realtà ciò che forse è finito è solo il ciclo caratterizzato da un particolare modo di fare filosofia della scienza che affondava le sue radici nel neopositivismo. Chi pensa che sia segnata la data di morte 77
www.scribd.com/Baruhk
Filosofia della scienza: la chiusura di un ciclo?
della filosofia della scienza perché quella oggi praticata è scaduta in sociologia della conoscenza, in pragmatica minimalista, in apertura totale al «tutto va bene» non si accorge che sta solo osservando da testimone la fine di un ciclo. D'altronde non è vero che la scienza è solo sociologia; non è vero che la scienza è solo pragmatica minimalista; non è vero che nella scienza «tutto va bene». Piuttosto questi sono esiti della nostra riflessione sulla scienza, che possono essere interpretati come indizi dell'esaurimento di una tradizione di pensiero epistemologico non come segnali dell'impossibilità di un nuovo ciclo. Il penultimo capoverso dell'introduzione a Conoscere e sperimentare di Hacking recita: « [. .. ] ancora una volta Nietzsche pare averla vinta. I libri filosofici inglesi avevano un tempo titoli come quello di Ayer del 1936, Linguaggio, verità e logica. Nel 1982 abbiamo Ragione, verità e storia [di Putnam] ». Hacking ha colto correttamente la parabola della filosofia della scienza contemporanea. Si è cominciato, negli anni venti, con una verità che era affare dell'analisi del linguaggio e della logica, e si è arrivati a un punto in cui la verità è affare della razionalità anapodittica e della storia. È questa la parabola che si è cercato di ricostruire in questo saggio, una parabola che è cominciata con l'aspettativa di dirimere tutti i problemi filosofici dell'impresa scientifica attraverso la logica e l'analisi del linguaggio, ma che termina con la consapevolezza che questa vena epistemologica, anche se ha dato enormi e importanti risultati, è una vena ormai esaurita. Questa consapevolezza, occorre ribadirlo, è solo la consapevolezza della fine di un ciclo e dell'inizio di uno nuovo, non la consapevolezza della fine della filosofia della scienza né tantomeno della razionalità scientifica e della scienza. A questo punto, però, non ci si può esimere dal chiedersi: si deve veramente iniziare un nuovo ciclo partendo da premesse pragmatiche e rinunciando per sempre a una filosofia più profonda? Gli autori che propongono questa impostazione - soprattutto americani - attingono alla loro tradizione, che è quella pragmatica. Ma per chi si è nutrito di una tradizione diversa, una tradizione che ha sempre considerato la via pragmatica un modo comodo, ma non filosoficamente pregnante di risolvere i problemi, la sfida di un nuovo ciclo impone un ritorno alle proprie origini. Molte soluzioni, nuovi problemi e nuove interpretazioni possono essere ritrovate proprio là dove è iniziata l'avventura neopositivista, ossia nel cuore della tradizione «continentale».
www.scribd.com/Baruhk
CAPITOLO
SECONDO
Logica e calcolatore DI GABRIELE LOLLI
I
·
PREMESSA
Una trattazione organica degli sviluppi della logica dopo il 1970 appare impresa irta di difficoltà ed esposta quasi inevitabilmente al rischio di forzature, omissioni e fraintendimenti.1 Anche il tentativo di cogliere la direzione degli sviluppi in corso attraverso una scelta di esempi rappresentativi costituisce una soluzione non del tutto soddisfacente: non sempre i filoni di ricerca che destano al momento più interesse sono destinati ad avere sviluppi futuri, proprio perché un eccesso di attenzione li può in breve esaurire. L'esaurimento di un tema di ricerca nella scienza non è un fatto negativo: significa semplicemente che si è ricavata tutta la conoscenza che sembrava possibile trarre da una particolare problematica e che grazie agli elementi acquisiti l'attenzione si sposta su nuove domande, sorte dalla ricerca stessa. Nel caso della logica contemporanea, un esempio può essere forse rappresentato dalle dimostrazioni di non contraddittorietà per induzione transfinita su qualche ordinale, in teoria della dimostrazione; gli ordinali associati alle teorie come misura della loro complessità sono stati ormai sostituiti in questa funzione dall'ordinale delle definizioni induttive giustificabili nelle teorie stesse. Una riflessione sugli sviluppi delle ricerche logiche negli ultimi vent'anni non è comunque impossibile o inutile; consente tra l'altro di valutare il posto della disciplina nell'articolazione, attuale e provvisoria, del sapere. Non vi è dubbio che, qualunque possa essere il futuro, il presente è rappresentato dai calcolatori, anche per le discipline «ancelle» (e «padrone») dell'informatica, come la logica e la matematica. Questa esposizione cercherà di mostrare come il calcolatore abbia influenzato e indirizzato le ricerche logiche. Scegliendo di concentrare l'attenzione su questo unico aspetto - pur senza avere la pretesa di esaurirlo - non si vuole certo suggerire che non vi siano altri temi e risultati interessanti o che i filoni descritti nei precedenti volumi si siano improvvisamente inariditi; ma è un fatto che solo il calcolatore rappresenta qualcosa di veramente nuovo, al punto di aver stimolato le uniche discussioni originali anche nella filosofia della logica. 1 La difficoltà veniva già segnalata da Cor· rado Mangione e Silvio Bozzi nella introduzione alia loro Storia della logica (1993Ì che costituisce un
ampliamento dei saggi già comparsi neila Storia del pensiero filosofico e scientifico di Ludovico Geymonat (1976).
79
www.scribd.com/Baruhk
Logica e calcolatore II
• L'EREDITÀ
LEIBNIZIANA
L'anno 1972 può essere assunto come data simbolica di una nuova fase nella storia della logica matematica. In quell'anno fu pubblicamente battezzato il linguaggio di programmazione PROLOG, proposto da A. Colmerauer e altri ricercatori di Marsiglia, 2 che lo usavano per i loro studi sul linguaggio naturale. Nasceva così la programmazione logica. Non era la prima volta che logica, calcolatori e discipline associate venivano a integrarsi e a interagire. Il rapporto era stato stretto fin dall'inizio, ma confinato ai settori di ricerca più teorica, come i fondamenti della calcolabilità, la teoria degli automi e dei linguaggi formali, la dimostrazione automatica; dopo la trasformazione in linguaggio di programmazione, la logica nel suo aspetto più noto e comune, quello del calcolo dei predicati, sarebbe diventata uno strumento paragonabile alle proverbiali quattro operazioni e un passaggio obbligato per ogni informatico. Ricostruire i percorsi attraverso cui si è arrivati a tale risultato costituisce un'istruttiva lezione di storia della scienza con un interessante intreccio di risultati e di discussioni sia scientifiche sia ideologiche. Negli anni trenta la logica aveva prodotto la teoria della calcolabilità effettiva; i logici - in particolare, John von Neumann (1903-57) negli usA e Alan M. Turing (1912-54) in Inghilterra - avevano poi dato un contributo decisivo alla costruzione dei primi calcolatori elettronici nel periodo bellico. La loro forza risiedeva nella capacità di inquadrare le originali soluzioni proposte dagli ingegneri - come il programma memorizzato - in una rigorosa, ancorché astratta, teoria delle macchine universali. Nell'immediato dopoguerra, Turing aveva anche indicato la strada all'Intelligenza Artificiale, argomentando che è possibile fare risolvere ai calcolatori problemi che ~,ISualmente si ritiene richiedano intelligenza. 3 Prevedeva che nella soluzione di problemi, oltre ad applicare algoritmi di soluzione espliciti, si sarebbe adottata la strategia (meccanizzabile) di compiere ricerche in uno spazio di risposte, opportunamente codificate, e che forse le ricerche nello spazio dei teoremi sarebbero state le più importanti essendo quelle a cui, almeno teoricamente, potrebbe essere ricondotto ogni altro tipo di ricerca (interessa infatti, oltre alla soluzione, anche la dimostrazione che si tratta di una soluzione non trovata per caso). Mentre programmava in linguaggio macchina, Turing prevedeva altresì che in futuro qualsiasi linguaggio simbolico sarebbe stato utilizzabile per dialogare con le macchine; tuttavia egli non si era dedicato esplicitamente a raffinare le tecniche logiche in vista di una loro meccanizzazione, anche se dava per scontato che un insieme completo di regole logiche dovesse essere parte integrante del bagaglio di strumenti necessari a un sistema (o essere?) intelligente (o da far diventare tale attraverso un'opportuna edu3 Si vedano Turing, 1992 e Lolli, 1994.
2 Si veda in proposito Colmerauer, Kanoui, Pasero e Roussel, 1973.
So
www.scribd.com/Baruhk
Logica e calcolatore
cazione). La ricerca di teoremi era da Turing concepita forse più come una ricerca metamatematica, da programmare anche al di fuori del linguaggio specificamente logico, che non come una costruzione esplicita della dimostrazione. Nella tradizione della logica l'aspirazione alla meccanizzazione era peraltro antica e ricorrente e aveva dato origine a svariati tentativi di costruire macchine aritmetiche e logiche, da Leibniz fino a Stanley Jevons; quest'ultimo aveva realizzato nel 1869 una macchina per verificare le identità booleane - il piano à raisonner - che avrebbe avuto tanta parte, come modello di riferimento, nelle polemiche che agli inizi del secolo avevano contrapposto Poincaré ai logicisti. Tutti i logici contemporanei, da Boole in avanti, utilizzano la formalizzazione, sia pure con obiettivi molto diversi tra loro. Per Frege lo scopo della formalizzazione - dell'uso, cioè, per la trattazione della matematica di un linguaggio artificiale dalla sintassi rigidamente fissata - non era quello di svuotare le parole del loro significato o di astrarre da esso; anzi, solo espresse nella sua scrittura per concetti le frasi erano propriamente analizzate e interpretate. Altra e opposta era la preoccupazione di Frege. Il ragionamento dotato di significato poteva diventare monco e soffrire uno svuotamento di contenuto (Inhaltsentleerung) nella logica calcolistica di Boole o nella macchina di Jevons e anche nell' aritmetica formale: « La lingua formulistica di Boole riproduce solo una parte del nostro pensiero: nella sua interezza però esso non potrà mai essere svolto da una macchina o surrogato da un'attività puramente meccanica. Il sillogismo potrà certo essere presentato sotto forma di calcolo, che naturalmente non sarà eseguibile senza pensare, ma che grazie alle poche forme schematiche e intuitive in cui tale calcolo si articola, garantisce una grande sicurezza. Ma il vero vantaggio si ottiene solo quando il contenuto non viene soltanto indicato, bensì costruito a partire dalle sue parti componenti mediante quegli stessi segni logici impiegati per calcolare. » 4 In questa frase di Frege sono sintetizzate tutte le alternative che si presentano alla formalizzazione, da quella estrema di sostituire integralmente il pensiero a quella di fornire alla sua espressione la massima certezza; ma il carattere necessariamente meccanico della formalizzazione in sé - qualunque ne sia poi l'uso - e l'inevitabilità di fare riferimento a esso anche da parte di chi vi si oppone è rivelato dalla descrizione della nuova natura della logica che emerge dalla Begri/fsschri/t: essa si esplica attraverso l'applicazione di regole determinate dalla sintassi; in quanto tali, le regole sono riducibili a operazioni di riconoscimento di forme così semplici da poter essere meccanizzate. Dalla formalizzazione ci si attendeva la realizzazione del sogno di Leibniz di poter risolvere i problemi della matematica e della filosofia facendo appello a procedure di decisione meccanizzate. Dopo più di cinquant'anni di perfezionamento dei linguaggi, nel 1944 K. Godei (1906-78) si diceva deluso degli obiettivi raggiunti 4 G. Frege, Booles rechnende Logik und die Begri/fschrift, in Frege 1969, trad. it., pp. 77-128.
81
www.scribd.com/Baruhk
Logica e calcolatore
dalla logica e attribuiva alla scarsa comprensione dei fondamenti la responsabilità del fatto che «la Logica Matematica finora è rimasta ben indietro rispetto alle alte aspettative di Peano e altri che (in accordo con le aspirazioni di Leibniz) avevano sperato che essa avrebbe facilitato la matematica teorica nella stessa misura in cui la notazione decimale dei numeri aveva facilitato le computazioni numeriche. Come ci si può aspettare di risolvere i problemi matematici sistematicamente attraverso una semplice analisi dei concetti, se la nostra analisi finora non è neanche in grado di fissare gli assiomi? ». 5 Godei, peraltro, non poteva ammettere che il suo autore preferito fosse un utopista e invitava a perseverare fiduciosi nella possibilità di una ars inveniendi, prendendo sul serio Leibniz quando dichiarava che la Characteristica universalis era responsabile di tutte le scoperte che egli aveva fatto. L'invito di Godei è stato raccolto nella direzione non solo di un approfondimento dei fondamenti, ma anche di uno sfruttamento proficuo della notazione logica già approntata. Godei pensava alla necessità di un progresso rispetto ai problemi di definibilità che avevano portato Russell a costruire la teoria dei tipi, o per quelli che si presentavano alla teoria degli insiemi con le sue incompletezze; su questi temi si poteva continuare a riflettere, ma finché non sorgevano idee nuove non era né opportuno né possibile uscire dal quadro stabilito. Intanto proprio i risultati di Godei e di Tarski avevano contribuito a individuare la logica del primo ordine come un concetto stabile e dalle proprietà ben note e definitive, per quanto eventualmente non condivisibili nei loro aspetti di relativismo. L'avvento dei calcolatori permetteva ora di assumere i sistemi formali definiti dalla tradizione logica, da oggetto, quali erano stati, di manipolazione manuale (effettiva soltanto in linea di principio), a oggetto di manipolazione meccanica, non solo in senso metaforico. III
· GLI
ESORDI
DELLA
DIMOSTRAZIONE
AUTOMATICA
I logici che erano al corrente dei nuovi sviluppi nel campo dei calcolatori non hanno tardato a raccogliere il suggerimento di Turing, ben consapevoli del fatto che quello che avevano dimostrato essere decidibile diventava ora programmabile. Nel contesto dello studio del problema della decisione (Entscheidungsproblem), la scuola hilbertiana aveva accumulato diversi risultati positivi per teorie logiche e matematiche, anche se a sollevare clamore era stato soprattutto l'epilogo negativo delle sue ricerche, culminate nel 1936 con la dimostrazione da parte di Alonzo Church (190395) della indecidibilità della logica del primo ordine e di problemi come quello dell'arresto per le macchine di Turing. 6 Tra i primi logici a cimentarsi con i calcolatori era stato Martin Davis, che nel 1954 aveva elaborato un programma per un algoritmo di decisione relativo alla teoria dell'addizione di Presburger - una teoria basata sugli assiomi aritmetici di Peano, ma solo per il successore e l'addizione 5 Si veda Godei, 1944, p. 152.
6 Si veda Church, 1936.
www.scribd.com/Baruhk
Logica e calcolatore
e non per la moltiplicazione. 7 n programma si era rivelato non molto efficiente, e d'altra parte si è dimostrato in seguito che l'aritmetica dell'addizione ha complessità superesponenziale. n risultato più notevole del programma di Davis venne considerata la dimostrazione che la somma di due numeri pari è un numero pari. Il primo dimostratore automatico si deve, più o meno contemporaneamente, ai lavori di Herbert Simon, Alan Newell e]. Clifford Shaw,8 che non erano logici ed erano anzi in dichiarata polemica con la logica; la loro Logic Theory Machine, o Logic Theorist, pur avendo lo scopo di dimostrare teoremi logici, si ispirava al principio di ripetere gli stessi passi che gli esseri umani compiono quando ragionano e dimostrano teoremi. Il Logic Theorist, come la successiva Geometry Machine, sono esempi della tendenza human-oriented in dimostrazione automatica (opposta dai suoi sostenitori a quella machine-oriented), il cui bastione sarà la scuola del MIT di Harvard (Mass.), rappresentata soprattutto dalle posizioni antilogiciste di Marvin Minsky (queste, comunque le si giudichi, suonano un po' aprioristiche in quanto a quel tempo non vi era sufficiente sperimentazione né in una direzione né nell'altra). Secondo Minsky, «il ragionamento logico è più adatto per esporre o per confermare i risultati del pensiero che non per il pensiero stesso ... lo usiamo meno per risolvere i problemi che non per spiegare la soluzione agli altri e a noi stessi. »9 Minsky ha un duplice rimprovero da muovere alla logica: di non essere uno strumento e di non essere una teoria del ragionamento, o meglio, di essere una teoria del ragionamento sbagliata. Essa è sbagliata nella richiesta della coerenza, perché «nessuno è mai completamente coerente. Ciò che importa è come uno tratta i paradossi e i conflitti, come impara dagli errori, come si allontana da sospette incoerenze»; ma è sbagliata anche nella richiesta della completezza, che Minsky considera banalmente ottenibile a prezzo di una ricerca esaustiva; essa è inoltre erronea nella distinzione netta che impone tra gli enunciati che incorporano le informazioni da una parte e l'elaborazione deduttiva dall'altra. La distinzione tra i due momenti non permette di includere la conoscenza del management della deduzione: non può essere detto al sistema, quindi non può essere incluso nella conoscenza, se si devono o non si devono fare certe deduzioni; ed è importante non fare certe deduzioni non solo per l'efficienza, ma per il problema della non monotonicità della conoscenza. Alcune informazioni devono spesso restare congelate, in attesa di conferma della loro attendibilità. Nel suo complesso la conoscenza non è un insieme di fatti atomici tutti indipendentemente veri, ma contiene informazioni sulla rilevanza e preferibilità di certi elementi. Infine, per Minsky, la logica è sbagliata in quanto devia dai compiti più importanti, che sono quelli di precisare e dominare nozioni non estensionali; Minsky cita come esempio l'espressione « di solito » (altri indicheranno l'analogia, il « vedere qualcosa come»). In definitiva la logica è una teoria sbagliata 7 Si veda Davis, 1957· 8 Si veda Newell, Shaw e Simon, 1957.
9 Si vedano le dichiarazioni rilasciate da Minsky in Kolata, 1982.
www.scribd.com/Baruhk
Logica e calcolatore
rispetto all'obiettivo per Minsky prioritario, che è quello di « cercare di imitare il modo in cui la mente umana ragiona ». Alcuni concetti ispiratori e alcune soluzioni incorporate nel Logic Theorist entreranno in modo stabile nel vocabolario del problem solving, come quello di subgoal, di organizzazione ad albero del concatenamento dei sottobiettivi, di sostituzione per realizzare un matching tra obiettivi. Nello stesso spirito Herbert Gelernter costruiva una Geometry Theorem-proving Machine per dimostrare i teoremi della geometria euclidea insegnata nelle scuole superiori. 10 La macchina geometrica si ispirava a un'idea di Minsky, che nel 1956 aveva osservato come i diagrammi potessero essere una guida per la costruzione della dimostrazione. Il procedimento è all'indietro, verso sottobiettivi, collegati da un albero AND/OR. Per problemi non troppo facili la macchina doveva però appoggiarsi anche a calcoli analitici come guida nella ricerca delle dimostrazioni. La macchina geometrica era naturalmente un programma, ma i programmi finalizzati a un compito specifico sono detti macchine; il termine identifica appunto una macchina con un preciso compito che si suppone essa esegua in maniera esclusiva; la macchina non viene costruita, viene invece programmato il compito ed eseguito facendo girare il programma su un sistema operativo generale; l'esecuzione del programma è paragonabile alla simulazione della macchina specifica sulla macchina universale. La macchina geometrica fu al centro di una delle prime polemiche intorno alle ambizioni e alle illusioni dell'Intelligenza Artificiale, polemiche che si sarebbero periodicamente riproposte con gli stessi argomenti e spesso gli stessi attori. Questa prima si trascinò fino al 1966 finendo anche sulle pagine del New Yorker. In una recensione, lo studioso di cibernetica W.R. Ashby diffuse la notizia che la macchina geometrica aveva trovato da sé una nuova dimostrazione del cosiddetto pons asinorum, il teorema secondo cui gli angoli alla base di un triangolo isoscele sono uguali; quindi H.L. Dreyfus, da sempre campione del campo avverso all'Intelligenza Artificiale, intervenne a segnalare che la macchina non aveva fatto altro che ripetere una dimostrazione del matematico greco Pappo di Alessandria (sec. rv d.C.), ben nota ma sconosciuta ai suoi programmatori (la dimostrazione difficile è quella in cui si deve vedere che ABC è uguale ad ACB; quella semplificata consiste nel tracciare la bisettrice da A a D e dimostrare che Af>B è uguale a ADC). Gelernter dovette spiegare come la dimostrazione, a lui nota, fosse emersa autonomamente nel corso della dimostrazione di un lemma per un altro problema, tra l'altro come risultato non sorprendente, in quanto tutte le questioni sui triangoli si riducono alla semplice combinatoria di tre punti.U
IO II
Si veda Gelernter, 1959. La discussione è ricostruita da Gelern·
ter nell'opera di Siekmann e Wrightson, 1983, pp. nS-121.
www.scribd.com/Baruhk
Logica e calcolatore IV ·
IL
LISP
Un merito non secondario di Newell, Shaw e Simon è stato quello di avere usato per programmare la loro macchina un linguaggio di trattamento di liste, che ispirò poi John McCarthy (n. 1927) nella creazione, tra il 1956 e il 1959, del LISP. Il usP sarebbe diventato il linguaggio preferito dagli studiosi di Intelligenza Artificiale, in quanto particolarmente adatto alla elaborazione non numerica. La sua apparizione fu un evento; per il calcolo numerico e le applicazioni economiche si stavano imponendo i linguaggi di programmazione strutturata imperativa, che erano già un notevole vantaggio rispetto a quello che nei dieci anni precedenti si era dovuto fare in termini di linguaggio macchina. Edsger W. Dijkstra ha distinto tra una fase pionieristica, in cui il problema principale è quello di governare la macchina attraverso programmi, e una fase matura, in cui si tratta di piegare la macchina a realizzare i nostri programmi, 12 che, possibilmente, non devono essere scritti pensando alle macchine e alla gestione dei dati interni. Nel linguaggio usato da Newell e Simon, «le liste contengono indirizzi che consentono di accedere ad altre liste, donde deriva l'idea di strutture di liste. Che questo fosse un nuovo punto di vista ci fu spesso dimostrato nei primi tempi dell' elaborazione di liste, quando i colleghi ci domandavano dove erano i dati, cioè quale lista contenesse in ultimo l'insieme dei bit che era il contenuto del sistema. Essi trovavano strano che non esistessero tali bit, e che ci fossero solo simboli che designavano altre strutture di simboli ... ».13 Nei linguaggi del paradigma funzionale, come sarà poi definito e di cui il LISP è il primo esempio, rispetto ai linguaggi imperativi manca l'assegnazione; il costrutto principale è quello della chiamata di funzioni - anche se in alcuni dialetti le assegnazioni sono reintrodotte, sia pure con un ruolo secondario. Nei linguaggi imperativi, nel corso di una iterazione nuovi valori sono associati allo stesso nome attraverso la ripetizione dei comandi; nei linguaggi funzionali, la chiamata ricorsiva crea sempre nuove espressioni della funzione applicata a nuovi argomenti, cancellando o rendendo inaccessibili le precedenti. Siccome i nomi non cambiano valori, si eliminano gli effetti collaterali sulle altre espressioni, quindi non si ha un problema di ordine delle istruzioni. Il modello della programmazione funzionale è quello dell' algebra, del calcolo delle equazioni, concepite unidirezionalmente come regole di riscrittura, o più propriamente, nella terminologia del À.-calcolo, come regole di riduzione. Il fatto che i programmi siano equazioni rende più naturale il passaggio dalle specifiche matematiche ai programmi. Si perde anzi la distinzione netta tra specifiche e programmi, e si realizza una coincidenza tra linguaggio e metalinguaggio che facilita non solo la scrittura ma anche l'analisi dei programmi. L'insieme delle equa-
12 Si veda dell'autore l'articolo del 1986 On a cultura/ gap.
13 Newell e Simon, 1976, trad. it., pp. 43-75.
www.scribd.com/Baruhk
Logica e calcolatore
zioni matematiche è il programma. Un sistema di equazioni come quello che, per esempio, definisce l'addizione x+o=x x+ s(y) = s(x + y)
ovvero nella notazione funzionale add = A.x. À.y. IF y =o THEN x ELSE s(add(x py))
(dove py sta per il predecessore di y, definito se y =F- o) viene accettato, con varianti sintattiche inessenziali, come un programma. La funzione è calcolata attraverso chiamate ricorsive, non per iterazione; questa richiede la gestione di un ciclo, con una variabile usata come contatore, incrementata a ogni ripetizione, fino al soddisfacimento di qualche condizione di test. Il LISP comprende oggetti atomici e forme, sequenze di atomi e di forme. La prima forma della sequenza è interpretata come funzione, le altre come argomenti. Se non si vogliono usare le assegnazioni, si hanno conseguenze anche per i tipi di dati trattati; per esempio non si usano a"ay perché servirebbero le assegnazioni per individuare gli elementi nei vari posti dell'a"ay; si utilizzano invece le liste annidate, ossia liste di liste. Queste permettono la rappresentazione anche di altre strutture, come gli alberi. Un'operazione importante è QUOTE, che ha le funzioni delle virgolette per formare i nomi, e trasforma una forma nell'espressione che è il nome della lista bloccando la valutazione. Una funzione come LIST fornisce una lista le cui componenti sono gli argomenti di LIST. Le liste devono essere distinte dalle forme per evitare la valutazione sulla base del primo elemento. Una lista è individuata da una testa e da una coda, e la struttura delle liste permette definizioni ricorsive (sulla lunghezza) simili alle chiamate delle funzioni. La stessa notazione è dunque usata per funzioni e per strutture di dati. Le funzioni possono poi essere trattate come valori: funzioni costruiscono nuove funzioni e le passano ad altre funzioni. Queste erano le motivazioni iniziali di McCarthy. Le funzioni sono concepite come oggetti, in un formalismo del primo ordine, lasciando cadere la distinzione di tipo tra funzione e argomento; il modello logico è quello del À-calcolo. Il costrutto primitivo LAMBDA, usato per formare nomi di funzioni, è stato impiegato allora solo per analogia superficiale, perché era l'unica notazione esplicita esistente in matematica per descrivere l'astrazione di una funzione da una condizione. Il resto del lavoro di Church dove era stato introdotto il À-calcolo, 14 McCarthy confessò di non averlo capito. Nel progettare il LISP peraltro, si realizzò, dapprima senza rendersene conto, un tipo di chiamata di funzione diversa da quella del À-calcolo, a causa del diverso trattamento delle variabili libere. Ma il À-calcolo era allora un sistema strano, 14 Si veda Church, 1941.
86
www.scribd.com/Baruhk
Logica e calcolatore
proprio per lo schiacciamento di argomenti, funzioni, funzioni di funzioni e così via su un solo livello. Vi era la possibilità di antinomie con l'autoriferimento, e mancava (ma nemmeno si sapeva se fosse possibile) una semantica naturale. La definizione di tale semantica è stata ottenuta per mezzo dei reticoli continui da Dana Scott, in una serie di lavori iniziata nel 1971 - uno dei risultati più notevoli della logica contemporanea. 15 Il concetto di reticolo continuo è una nozione di matematica astratta la cui introduzione è stata stimolata, se non suggerita, da questioni eminentemente concrete, come sono quelle della programmazione. Dapprima era forse anche comprensibile che gli informatici trattassero il formalismo del LISP non diversamente da tutti gli altri loro formalismi, considerandolo il risultato di approssimazioni successive e accettandolo perché funzionava, ma senza una chiara visione delle sue relazioni generali con i concetti fondamentali. Successivamente, la programmazione ha fatto un passo decisivo da arte a scienza. Nella ricapitolazione di Newell e Simon, «[il linguaggio di McCarthy] completò l'atto di astrazione, separando le strutture a liste dalla loro inserzione in macchine concrete e creando un nuovo sistema formale che si poteva dimostrare essere equivalente agli altri schemi universali di computazione ». 16 Questo formalismo è un formalismo logico a pieno titolo, tra l'altro implementato e collaudato, una logica delle funzioni di perfetta generalità, anche se meno nota e popolare di quella dei predicati. Si assiste così a una strana duplicazione nella polemica contro la logica; il linguaggio di programmazione è quello della logica, ma in questo linguaggio logico si vogliono programmare attività (inferenziali) che sono dette non logiche. In realtà queste attività non sono altro che strategie di costruzione di deduzioni; in quanto razionali, o descrivibili in modo preciso e generale, queste strategie sono computabili, e quindi rappresentabili dai processi generativi logici. Ma proprio l'Qso di un linguaggio di programmazione come il LISP mette in clamorosa evidenza una realtà che era nota solo sul piano teorico, e cioè l'equivalenza tra calcolo e deduzione logica. Da una parte, si possono definire i sistemi formali in base alla nozione di calcolabilità, in quanto in un sistema formale le regole devono essere meccaniche e gli assiomi meccanicamente riconoscibili, in modo che le derivazioni siano sequenze decidibili di formule, e quindi siano generate da una macchina (identificabile con gli assiomi e le regole del sistema); questo era il motivo che aveva spinto Godei a interessarsi alla nozione di calcolabilità effettiva, per arrivare a una definizione precisa dei sistemi formali emersi dallo studio hilbertiano della logica. D'altra· parte, si possono al contrario definire le funzioni calcolabili come quelle i cui valori sono ottenibili in un calcolo logico, per esempio il calcolo aritmetico delle equazioni oppure il À.-calcolo. L'equivalenza, o circolarità, non era così evidente né rilevante 15 Si veda in particolare il saggio Continuous lattices del 1971.
16 Newell e Simon, op. cit.
www.scribd.com/Baruhk
Logica e calcolatore
quando si doveva programmare in linguaggio macchina, facendo attenzione alle particolarità anche fisiche di ciascuna macchina, ma lo diventava con i linguaggi di alto livello, soprattutto con quelli non imperativi. Ciò che gli antilogicisti proponevano era l'uso di un formalismo e di un sistema logico universale come metasistema per la ricerca e la costruzione euristica delle dimostrazioni. Con un po' più di attenzione e meno polemica interessata, non si sarebbe avuta questa «battaglia della secchia» molto semplificata e molto ideologizzata, su cui torneremo, che ha investito non solo l'impostazione della dimostrazione automatica, ma i fondamenti generali dell'Intelligenza Artificiale. L'alternativa cosiddetta logicista usa un calcolo logico come motore inferenziale fisso unico per la generazione delle derivazioni (tra l'altro, programmato in un linguaggio qualunque di facile uso); non si tratta però di un calcolo logico qualsiasi, bensì del calcolo in cui sono state incorporate (almeno alla fine della ricerca, come vedremo) strategie particolari, addirittura al prezzo, in alcuni casi, di perdere la completezza. La distinzione tra le due scuole risiede dunque in questa alternativa: se le strategie di ricerca appartengono al metalinguaggio (logicismo) oppure se sono programmate nel linguaggio (logico) di programmazione, e quindi appartengono al linguaggio. V
DA
SKOLEM
AL
CALCOLO
DELLA
RISOLUZIONE
Arrivare a un motore inferenziale efficiente non è stato immediato, ma, col senno di poi, neanche troppo difficile, capitalizzando risultati già disponibili. Alla fine degli anni cinquanta il compito di difendere la logica venne assunto da Paul Gilmore e Hao Wang (1921-95)Y Vi era, soprattutto da parte di quest'ultimo, la volontà di smentire la tesi di Newell e Simon che i sistemi di logica completi dovessero essere poco maneggevoli, e di provare invece che erano i loro sistemi a essere inefficienti. Gilmore lavorava con una versione delle tavole semantiche di Beth, per sua stessa ammissione molto rozza; Wang pensò di rifarsi ai risultati di teoria della dimostrazione di Gentzen e Herbrand per usare sistemi senza taglio. 18 In una progressione di programmi (resi pubblici nel 1960, ma iniziati nel 1958), Wang riuscì a ottenere la dimostrazione di tutti i 150 teoremi del calcolo dei predicati con uguaglianza contenuti nei Principia Mathematica in nove minuti, risultato notevole per le macchine dell'epoca, come IBM 704; Wang si accorse peraltro che tutti questi teoremi erano di un forma particolarmente semplice, la forma cosiddetta AE. 19 L'indicazione di riferirsi ai risultati di Herbrand e di Skolem per ottenere stradella Storia del pensiero filosofico e scientifico di L. Geymonat (1976). 19 Gli enunciati in questa forma hanno nel prefisso solo quantificatori universali seguiti da quantificatori esistenziali.
17 Si vedano Gilmore, 1960 e Wang, 1960. 18 Per i lavori di G. Gentzen (1909-45), J. Herbrand (1908-31) e per quelli di Th.A. Skolem (1887-1963), menzionato più avanti, si veda il capitolo La logica nel ventesimo secolo (I) nel vol. vm
88
www.scribd.com/Baruhk
Logica e calcolatore
tegie dimostrative efficienti per il calcolo dei predicati era stata data la prima volta da Abraham Robinson (1918-74) nel 1957. 20 Questi risultati costituiscono una riduzione della logica predicativa alla logica proposizionale. Se "dx 1... "dxn A(xl' ... , xn), per brevità "dx A(x), è un enunciato universale, con la matrice A priva di quantificatori, allora \;:fx A(x) è soddisfacibile se e solo se lo è l'insieme S = {A(x!tl.) } di enunciati privi di quantificatori ottenuti sostituendo in A tutti i termini chiusi del linguaggio di A. Ma S è soddisfacibile se e solo se lo è in senso proposizionale, cioè assegnando i valori di verità agli enunciati atomici da cui gli elementi di S sono ottenuti solo con i connettivi. Questo teorema è noto e insegnato nei corsi di informatica come « teorema di Herbrand », mentre in questa forma semantica è dovuto a Skolem; responsabile della errata attribuzione era Martin Davis, che su questa base iniziava in quegli anni a raffinare metodi meccanici; la posteriore rettifica filologica non è stata sufficiente a modificare la terminologia, ormai invalsa per consuetudine. S è in generale infinito, se A contiene simboli funzionali; se si vuole la perfetta generalità del metodo occorre considerare questi casi, in quanto un enunciato qualsiasi si può esprimere nella forma equisoddisfacibile "dx A(x) solo al prezzo di eliminare i quantificatori esistenziali per mezzo di simboli funzionali. La riduzione alla logica proposizionale è quindi parziale, nel senso che il teorema suddetto non consente di trasferire alla logica dei predicati la decidibilità della logica proposizionale. I quantificatori eliminati «si vendicano» con l'infinità di S. Per usare metodi proposizionali, decidibili, si può provare a stabilire la insoddisfacibilità di 5, grazie al teorema di compattezza, cercando un suo sottinsieme finito insoddisfacibile; si delinea perciò una strategia in due fasi, alternate e ripetute: generare sottinsiemi finiti di 5, quindi applicare metodi proposizionali per determinarne la soddisfacibilità o meno. Se si incontra un sottinsieme finito insoddisfacibile, si può concludere lo stesso anche per 5, altrimenti si continua. In una prima fase, si è cercato di perfezionare questi ultimi metodi, e in particolare i metodi per le forme normali congiuntive, cioè per congiunzioni, o insiemi, di clausole; le clausole sono formule del tipo
L1v ... vLm con ogni L.l atomica o costituita dalla negazione di una formula atomica (in breve, come si dice, un letterale). Il motivo per cui si lavora con le forme normali congiuntive è che queste sono le più difficili, dal punto di vista della verifica della soddisfacibilità, mà sono le più facili per la verifica della tautologicità: questa verifica si può fare in spazio e tempo lineari, semplicemente ispezionando la formula e verificando se in ogni clausola c'è una coppia complementare, cioè un letterale e la sua negazione (il complemento U è -,P se L è P ed è P se L è -,P). Le forme nor20
Si veda Robinson, 1957.
www.scribd.com/Baruhk
Logica e calcolatore
mali disgiuntive a loro volta (forme duali, disgiunzioni di congiunzioni di letterali) permettono una verifica immediata della soddisfacibilità, perché è sufficiente verificare che in una congiunzione non ci sia una coppia complementare. Le forme normali congiuntive sono in un certo senso, anche considerando le operazioni da fare per trasformarle nella forma disgiuntiva duale, le più lontane dalla verifica facile della soddisfacibilità, ed è su queste che gli algoritmi devono misurarsi (non su quelle in cui si hanno già metodi efficienti). Dato un insieme finito di clausole, ci sono diverse operazioni utili di riduzione, che migliorano il procedimento sistematico ma impraticabile delle tavole di verità, fornendo insiemi su cui la verifica è più agevole. Per esempio, un'operazione utile è quella di cancellare le clausole unitarie e quelle in cui qualche letterale non ha in nessun'altra clausola il suo complemento; un'altra riduzione è quella che, dato un insieme di clausole, ne fornisce un altro cancellando un letterale L ed eliminando tutte le clausole che contengono il complementare U. Queste regole costituiscono essenzialmente il metodo elaborato da Davis e Putnam; 21 se si vuole, il metodo di riduzione può essere espresso in una forma deduttiva (anche se è più interessante nel caso con variabili) per mezzo della regola di risoluzione
C1vL C2vU C1vC2 dove si assume la commutatività della disgiunzione, cioè L e U non devono essere necessariamente all'ultimo posto. Derivare la clausola vuota in questo contesto (pensando alle clausole come a insiemi di letterali) è un modo di dire per significare che si è arrivati a due clausole unitarie che siano rispettivamente L e U. Una derivazione della clausola vuota da S si chiama refutazione di S. Si dimostra un teorema di correttezza e completezza, nel senso che un insieme di clausole proposizionali S è insoddisfacibile se e solo se S è refutabile per risoluzione. Implementato nel 1962, il metodo di Davis e Putnam si rivelò insoddisfacente non tanto dal punto di vista delle tecniche per la insoddisfacibilità proposizionale, quanto per l'esplosione combinatoria nella dimensione degli insiemi finiti di clausole, dovuta al carattere superfluo della maggior parte delle sostituzioni nella matrice A. Davis e Putnam avevano intuito che i metodi basati sul teorema di Herbrand generavano troppi termini inutili, ma fu Dag Prawitz nel 1960 a osservare chiaramente per la prima volta che bisognava concentrarsi sull'altro aspetto, cercando di prevedere - e mostrando che era possibile - quali fossero i termini che, sostituiti nella matrice, avevano una buona probabilità di generare enunciati con coppie complementari.22 Le condizioni di Prawitz erano espresse da sistemi di equazioni tra i termini, non molto maneggevoli. Davis nel 1963 propose di combinare i vantaggi
21
Si veda Davis e Putnam,
22
1960.
Si veda Prawitz,
90
www.scribd.com/Baruhk
1960.
Logica e calcolatore
della intuizione di Prawitz con l'efficienza proposizionale di Davis e Putnam. Si arrivò così a studiare il problema sotto la forma della unificazione. Un unificatore di un insieme di espressioni è una sostituzione, fatta con termini del linguaggio delle espressioni date, la quale, applicata alle espressioni, le rende tutte uguali tra loro. Un unificatore generale è un unificatore tale che qualunque altra soluzione sia una sua specializzazione con una ulteriore sostituzione (per esempio non userà costanti dove si possono usare variabili). Un algoritmo di unificazione è un algoritmo che, dato un insieme di espressioni, stabilisce se esiste un unificatore generale dell'insieme, e nel caso esista ne fornisce uno. Dimostrata l'esistenza di algoritmi di unificazione, anche abbastanza efficienti, si sono potuti combinare i vantaggi della previsione alla Prawitz e dell'efficienza alla DavisPutnam. J.A. Robinson nel 1965 propose la sua regola di risoluzione per clausole con variabili;23 la regola è simile a quella proposizionale, solo che si applica a clausole con variabili che sono quelle della matrice A originaria; inoltre, nelle clausole genitrici non ci devono essere due letterali complementari, ma due letterali L[t] e U[s] - indicando con L[t] una formula atomica, o la negazione di una formula atomica, in cui occorra una n-upla di termini - che possono diventare complementari, tali cioè che L[t] e L[s] siano unificabili da un unificatore cr; la regola si esprime allora nel seguente modo C1v L[t]
C2v U[s]
(C1vC2 )cr Con la regola di Robinson si torna indietro e viene evitato del tutto il passaggio alla logica proposizionale che è servito come excursus teorico per arrivare a questo risultato; la riduzione alla logica proposizionale non è più cercata, né per motivi di efficienza, né per motivi teorici; il riferimento alla logica proposizionale resta per così dire solo virtuale, indicato come possibile nella risposta dell'algoritmo di unificazione che esiste una sostituzione che rende uguali le due espressioni (ma le sostituzioni non vengono fatte con termini chiusi, bensì sempre con termini in cui figurano variabili, per permettere la composizione con le successive sostituzioni). Si dimostra un teorema di completezza del calcolo della risoluzione. La regola appare semplice, tuttavia non lo è, anche se è decidibile, come deve essere; ma è forse il primo esempio di una regola logica che non si applica a vista, bensì solo dopo l'applicazione di un algoritmo di decisione, che dovrà essere affidato a un programma. Rivolta alla meccanizzazione, richiede essa stessa la meccanizzazione. Essendovi un'unica regola nel calcolo, è notevolmente ridotto l'indeterminismo nella costruzione di una derivazione, indeterminismo che si riduce a possibili scelte plurime di coppie complementari o di clausole con coppie complementari; non viene però ancora suf23 Si veda
J.
A. Robinson, 1965.
91
www.scribd.com/Baruhk
Logica e calcolatore
ficientemente ridotta la generazione di clausole inutili, per cui è stato necessario cercare possibili raffinamenti. Alcuni raffinamenti possono guidare la scelta delle clausole da risolvere tra loro (che una sia unitaria per esempio, se possibile) o del letterale da risolvere (fissato un ordine di priorità tra i predicati); altri possono condensare più applicazioni a cascata in un solo passo, o al contrario bloccare l'esecuzione di risoluzioni il cui effetto non sarebbe utile (se per esempio il risultato fosse una tautologia); in questo caso si preferisce parlare di restrizioni. Alcune restrizioni si servono di un particolare modello per guidare la costruzione della refutazione. Una restrizione possibile, per esempio, è quella di esigere che in ogni risoluzione una almeno delle due clausole genitrici non sia valida nel modello fissato. La ragione deriva dalle seguenti considerazioni. Se da assiomi A1' ... , An si vuoi sapere se è possibile dedurre B, si aggiunge ad Al'"'' An la negazione di B, allo scopo di trovare una contraddizione; si può supporre tuttavia che l'insieme di assiomi Al'"'' An sia coerente e abbia un modello; tutto quello che si deriva dagli assiomi con la risoluzione continua a essere valido nel modello, e finché si usano solo questi assiomi non si arriva a una contraddizione; l'indicazione euristica ovvia è quella di usare subito la negazione di B, che sarà falsa nel modello degli assiomi se B è una loro conseguenza. La generalizzazione sistematica di questa idea si è rivelata corretta ed efficace. Una restrizione molto efficiente, anche dal punto di vista della gestione interna dei dati, è la cosiddetta risoluzione lineare ordinata. In ogni implementazione reale le formule sono rappresentate inevitabilmente dentro alle macchine da strutture ordinate; una frase apparentemente semplice come «consideriamo equivalenti due clausole se si ottengono l'una dall'altra scambiando l'ordine di qualche letterale», per la proprietà commutativa della disgiunzione, non è realizzabile se non scrivendo tutte le clausole che si ottengono dalle permutazioni dei letterali. Nella trattazione informale ci si riferisce a una sola clausola pensata come insieme di letterali, ma nella pratica questa semplificazione non è possibile. D'altra parte il numero delle clausole è fondamentale per determinare la lunghezza della ricerca della derivazione, per cui se ne scrive una sola. La questione è collegata a un'altra altrettanto importante, al fatto cioè che bisogna dare indicazioni precise per la scelta del letterale da risolvere (non si può programmare dicendo: uno qualunque). Fissato il criterio di scelta (di solito si dice il primo, oppure nelle esposizioni per comodità si dice l'ultimo nella scrittura da sinistra a destra), il non avere altre versioni equivalenti delle clausole, con un ordine diverso dei letterali, può sembrare una restrizione forte e dirompente. Invece risulta che non è così, e il vincolo imposto da esigenze di rappresentazione interna diventa una semplificazione formidabile della applicazione della regola. Per ragioni di risparmio di memoria si impongono poi altri vincoli; per esempio in una clausola ogni letterale deve essere scritto una sola volta e quindi, quando si forma una nuova clausola per risoluzione, eventuali ripetizioni di letterali prove92
www.scribd.com/Baruhk
Logica e calcolatore
nienti dal contributo delle due clausole genitrici vanno cancellate. Più importante, dal punto di vista della gestione della memoria, è la richiesta che ogni clausola ottenuta per risoluzione sia immediatamente riutilizzata come premessa di una nuova risoluzione, invece di immetterla nella base di dati ed esplorare tutte le altre possibilità. Tenendo conto di tutte queste esigenze, ne viene per le derivazioni una struttura del tipo
dove ogni C.t+ 1 è ottenuta per risoluzione ordinata da C.t e da B.,t ed è subito riutilizzata per la successiva risoluzione. Le Bi sono clausole o nell'insieme originario S da dimostrare insoddisfacibile, oppure ottenute nel corso della derivazione, e quindi coincidenti con qualche C. precedente. Una struttura siffatta, dove le risoluzioni J sono risoluzioni ordinate sull'ultimo letterale delle C.,t si dice una derivazione lineare ordinata. La risoluzione lineare ordinata è ancora completa. VI • I
DI M O S T R A T O R I
A U T O M A TI C I
Tutti i raffinamenti e le restrizioni elaborati alla fine degli anni sessanta non fanno perdere la completezza. Si ha quindi a disposizione un motore inferenziale generale di massima potenza e soddisfacente maneggevolezza, capace di superare, in teoria e in pratica, le critiche che erano state mosse alla utilizzazione di un sistema unico. Anche all'interno del settore della dimostrazione automatica si sono manifestate infatti posizioni alternative, sia pure meno ideologiche di quelle emerse nell'ambito dell'Intelligenza Artificiale, contrarie all'uso di un unico sistema universale. Per avere teoremi in ogni teoria specifica occorre assumere gli assiomi di quella teoria in aggiunta al meccanismo logico di base; ma talvolta questi assiomi suggeriscono percorsi particolari, che il motore inferenziale logico non è in grado di individuare da solo. Le regole logiche sono sì generali, ma proprio per questo mal si prestano alle particolarità dei vari campi. Inoltre l'aggiunta di assiomi aumenta le dimensioni della base di dati e la complessità della ricerca. Già l'uguaglianza crea problemi con i suoi assiomi: per esempio, per passare da Rac a Rbc in presenza di un'equazione a= b, occorre fare appello all'assioma dell'uguaglianza per R, x =F-y v-,Rxz v Ryz, e risolvere due volte (senza contare altri assiomi dell'uguaglianza che rappresentano strade senza successo, ma da esplorare). 93
www.scribd.com/Baruhk
Logica e calcolatore
Nel calcolo della risoluzione si è trovata una semplificazione con un'opportuna regola di sostituzione in alternativa agli assiomi dell'uguaglianza, la regola di paramodulazione. Ma nelle teorie algebriche si ripresenta il problema; le equazioni sono di fatto usate come regole di trasformazione di espressioni, che non richiedono altre regole logiche che quelle di sostituzione. Di nuovo, gli assiomi dell'uguaglianza e quelli specifici algebrici impongono complicati percorsi per la realizzazione delle sostituzioni; per esempio, in presenza dell'assioma di commutatività, si deduce che abc = bac con
ab=ba X
=)'
~
ab=ba
XZ
~
=)'Z abc=bac
abc=bac ma è preferibile interpretare gli assiomi specifici come regole di produzione; nel caso della commutatività, si può prevedere una regola sola del tipo
crabt
~
abat
essendo cr e t due parole qualunque, anche vuote. Le regole di riscrittura, come sono anche dette queste regole di produzione, hanno avuto grande impulso nel contesto di teorie algebriche e hanno permesso di chiarire molti concetti relativi alla confluenza delle procedure di riduzione a forma normale. 24 La strada del motore inferenziale universale sembra dapprima ardua per la lunghezza e rigidità dei calcoli, anche per la risoluzione con le sue restrizioni. Vi è un semplice teorema di teoria dei gruppi che viene utilizzato come test per i dimostratori (sono considerati forti quelli che riescono a dimostrarlo). Si tratta della proprietà che ogni gruppo di esponente 2 è abeliano: esponente 2 significa che xx= e; abeliano significa commutativo. Anche per programmi specificamente concepiti per la teoria dei gruppi questo teorema rappresenta in un certo senso un limite. Il motivo si evince dai seguenti dati. Con la risoluzione, pur adottando la potente restrizione lineare, si ottiene una derivazione di lunghezza 42; ma la sua ricerca consiste nel provare a eseguire tutte le risoluzioni possibili e genera un albero che si può supporre conservativamente abbia un saggio di diramazione di ordine 3 (ogni clausola si risolve mediamente con altre tre clausole). L'albero da generare perciò per trovare la derivazione è dell'ordine di 342 • Applicando la paramodulazione, si riduce la lunghezza della minima derivazione a 10 passi, ma il saggio di diramazione sale a 12, per cui l'albero ha pur sempre ordine di grandezza 12 10 • Sono numeri che non permettono il ritrovamento della derivazione. Una dimostrazione semplice si 24 Si vedano Knuth e Bendix, 1970; Huet, 1977.
94
www.scribd.com/Baruhk
Logica e calcolatore
ottiene invece se si osserva prima che la proprietà di essere abeliano è equivalente alla proprietà per la quale ogni commutatore è uguale all'identità, e quindi che con l'ipotesi xx= e, ovvero x= x- 1, ogni commutatore assume la forma abab, per cui ci si riduce a dimostrare che abab =e. Questi sono alcuni degli argomenti che gli oppositori dei sistemi inferenziali universali fanno valere e giudicano insuperabili; lo strumento del motore inferenziale universale tuttavia si rivela utile e duttile soprattutto se usato con saggezza, attivando cioè le diverse soluzioni disponibili a seconda del tipo di problema (una risposta diversa, incorporata nella programmazione logica sarà considerata in seguito). È il caso del più famoso e fortunato dimostratore automatico basato sulla risoluzione, AURA (acronimo di AUtomatic Reasoning Assistant) costruito da Larry Wos e dai suoi collaboratori negli anni settanta.25 AURA è un esempio di dimostratore in cui sono possibili, a seconda dei casi e delle necessità dell'utente, una pluralità di raffinamenti anche se il programma non è modificato. L'utilizzatore si può ispirare a dimostrazioni di teoremi simili, almeno all'apparenza, per scegliere la strategia; oppure può decidere di alternare due strategie, per un insieme di clausole di cui si vuole decidere la coerenza o meno: da una parte cercare una refutazione, dall'altra cercare di costruire un modello. Le applicazioni di AURA sono state molte: dalla teoria dei semigruppi finiti alle algebre ternarie al calcolo delle equivalenze; esso è stato inoltre usato come verificatore di programmi e progetti. Uno dei successi più notevoli è stata la scoperta di un semigruppo finito che ammette un antiautomorfismo non banale mentre non ammette involuzioni non banali. Il problema era stato suggerito da I. Kaplanski; raccontano gli autori che, non conoscendo bene l'algebra, inizialmente dimostrarono con facilità e con grande gioia il teorema, senza accorgersi di avere male interpretato la nozione di involuzione e di aver quindi dimostrato un risultato non interessante. Corretta la definizione, tuttavia, anche il teorema interessante fu provato con la stessa tecnica e senza rilevanti complicazioni aggiuntive. W.W. Bledsoe ha usato dimostratori basati sulla risoluzione o indifferentemente sulla deduzione naturale (su cui è stato condotto anche un notevole lavoro di perfezionamento, che qui non è possibile ricordare) per dimostrare teoremi di analisi; 26 alle regole logiche di base ha dovuto aggiungere alcune regole specifiche per l'algebra degli insiemi, per la trattazione degli intervalli in cui cadono i valori cercati e per l'applicazione dell'induzione. Si potrebbero porta,re molti altri esempi di realizzazioni interessanti. Certamente, « se i dimostratori automatici hanno occasionalmente contribuito alla dimostrazione di nuovi teoremi matematici, il genere di dimostrazioni scoperte dai programmi di oggi sarebbe considerato banale dalla maggioranza dei matematici. Ma un dimostratore automatico non ha bisogno di essere un matematico di prima classe per 25 Si veda Wos e Winker, 1984.
26 Si veda Bledsoe, 1984.
95
www.scribd.com/Baruhk
Logica e calcolatore
essere utile. Sarebbe già un enorme successo con grandi conseguenze pratiche produrre un programma capace di seguire e scoprire errori in dimostrazioni descritte al livello di testi universitari ». 27 Boyer e Moore, autori di questa riflessione, sono più interessati all'uso di dimostratori automatici per le dimostrazioni di correttezza. A loro si deve la costruzione di un dimostratore28 che ha incorporata la regola di induzione e alcune euristiche per applicarla e scegliere sia la variabile sia il predicato di induzione. Boyer e Moore si sono basati sul fatto che la maggior parte delle definizioni di tipi di dati e di funzioni nei linguaggi di programmazione è data per ricorsione. Così, per esempio, per dimostrare (x* y) * z =x* (y * z) il programma sceglie di applicare l'induzione perché la moltiplicazione era definita da s(x) * y = y +(x* y), per cui provando a vedere cosa diventa la tesi del passo induttivo si accorge che ricompare la stessa formula dell'ipotesi: con s(x) al posto di x la tesi da dimostrare diventa
e per ipotesi induttiva (y + (x
* y)) * z = (y * z) + ((x * y) * z)
che con w al posto di x * y è la proprietà distributiva. Il programma arriva da solo a scoprire che la proprietà distributiva è rilevante per la dimostrazione in questione e la dimostra direttamente per induzione. Il programma di Boyer e Moore ha ottenuto notevoli risultati, dimostrando teoremi non banali in aritmetica, come il piccolo teorema di Fermat (per cui kP- 1 = l (mod p) se p è primo e non divide k), il teorema di Wilson (vale a dire che (p - l)!=- l (mod p) se p è primo), la legge di reciprocità quadratica di Gauss; nella teoria delle funzioni calcolabili, l'esistenza di una funzione non primitiva ricorsiva e l'insolubilità del problema dell'arresto; in logica, la correttezza e la completezza del calcolo proposizionale; infine, la Turing-completezza del LISP puro (cioè che per ogni macchina di Turing esiste un programma in LISP che calcola esattamente la stessa funzione della macchina di Turing). VII • LA
CORRETTEZZA
DEI
PROGRAMMI
La correttezza di un programma è l'affermazione che il programma calcola effettivamente la funzione per la quale è stato scritto e che termina sempre in un numero finito di passi, nella formulazione forte, per algoritmi ovunque defmiti. Si suppone di conoscere la funzione ricorsiva di cui si scrive un programma; per poterne parlare, la funzione deve essere definita e quindi descritta in qualche linguaggio, precedente al linguaggio di programmazione, per esempio un formalismo matematico. 27 Si veda Boyer e Moore, 19840, p. 120.
28 Si veda Boyer e Moore, 1979.
www.scribd.com/Baruhk
Logica e calcolatore
Tale descrizione si chiama specifica del programma. La parola «correttezza» è usata in modo coerente con il senso che ha nella semantica, di corrispondenza cioè della espressione sintattica alla interpretazione semantica, nel caso la sua specifica. Turing nel 1948 aveva concepito la prima dimostrazione della correttezza di un programma; la sua era una dimostrazione matematica, non esplicitamente logica e non formalizzata. Essa tuttavia conteneva indicazioni che in seguito sono state riscoperte: Turing proponeva che la correttezza di un programma venisse ridotta al controllo di una serie di asserzioni che la implicano e che sono di facile verifica; sono asserzioni associate alle varie istruzioni del programma e relative ai valori delle variabili in gioco e della memoria quando il controllo ritorna a quelle istruzioni. Ciascuna asserzione vale per una parte di programma indipendente; occorrono perciò anche una asserzione iniziale sugli eventuali vincoli che legano gli argomenti, e una finale che descrive la relazione funzionale voluta tra le variabili di uscita e quelle di ingresso. Per la dimostrazione della terminazione Turing suggerisce l'uso della induzione su ordinali, dopo aver individuato una quantità che decresce al girare del programma, fino a tendere a zero. Agli inizi degli anni sessanta, le dimostrazioni di correttezza erano diventate argomento scottante in informatica, per una insoddisfazione diffusa sull'arte della programmazione; si elaboravano programmi sempre più complicati, ma sempre più difficili da controllare, da capire, da modificare per il modo in cui crescevano empiricamente per stratificazioni successive quasi in virtù di una sorta di processo evolutivo. Inoltre l'affidamento esclusivo ai programmi di compiti sempre più impegnativi rendeva pressante il problema della sicurezza. Un caso molto citato era quello del Mariner I, la sonda spaziale americana per Venere, che nel 1962 uscì dall'orbita e dovette essere distrutta a causa di un errore in uno dei programmi di bordo; un enunciato del programma, sia pure sintatticamente corretto, aveva un significato diverso da quello inteso. Le dimostrazioni di correttezza sono state caldeggiate soprattutto da McCarthy. 29 Nella sua visione, le dimostrazioni di correttezza, non solo per programmi ma anche per sistemi ingegneristici complessi, avrebbero dovuto sostituire il cosiddetto debugging, la ripulitura dai bachi, che avveniva in modo empirico facendo girare il programma su casi particolari. Un vantaggio delle dimostrazioni di correttezza è che dovrebbero favorire anche una migliore disciplina della programmazione, in quanto il programma dovrebbe essere costruito in modo pulito fin dall'inizio, in simbiosi con la dimostrazione di correttezza. L'informatica chiede aiuto alla matematica, considerata un modello di rigore e di eleganza, oltre che di correttezza. Una volta ideato il sistema, è ragionevole per McCarthy pensare che la verifica della sua correttezza debba essere compito più semplice, e quasi di routine, dal momento che le dimostrazioni sono ottenute seguendo il codice del programma in modo abbastanza ovvio, 29 Si veda McCarthy, 1962.
97
www.scribd.com/Baruhk
Logica e calcolatore
a partire dalle specifiche; questo vuoi dire che la verifica si presta alla trattazione meccanica. Un altro vantaggio della verifica meccanica è che non intervengono i pregiudizi umani, in particolare quelli ottimistici dell'ideatore; infine la verifica meccanica è garanzia di certezza, in quanto esclude gli errori umani, frequenti in compiti di grandi dimensioni basati soprattutto su pazienza e attenzione. Per rendere realistica l'impresa della verifica della correttezza accorrevano tuttavia secondo McCarthy, rispetto allo stato dell'arte del tempo, diversi progressi: nuove tecniche per il calcolo simbolico, nuove specie di sistemi formali che permettessero dimostrazioni più corte, e particolari tecniche di verifica che rendessero appunto un compito standardizzato e di routine la costruzione della dimostrazione. Queste ultime non tardarono a essere elaborate; nell'esempio di Turing c'era una certa confusione tra frasi di programma e specifiche matematiche delle stesse; Robert W. Floyd e C.A.R. Hoare proposero separatamente sul finire degli anni sessanta formalismi precisi in linguaggio logico, il primo in riferimento ai diagrammi di flusso - come già aveva suggerito von Neumann - il secondo ai programmi strutturati. 30 Il formalismo di Hoare è costituito da espressioni della forma {I} P {0}, dette asserzioni, dove P è un programma e I e O sono due formule del linguaggio logico in cui è scritta la specifica; I si chiama formula di ingresso e O formula di uscita. Se P è un programma, I esprime eventuali vincoli dati per gli argomenti e O la specifica, cioè la relazione funzionale tra le variabili di ingresso e di uscita che si vuole calcolare, allora la dimostrazione della correttezza consiste nella derivazione di {I} P {0} in un calcolo adatto; il calcolo è dotato di regole per passare, per ogni istruzione, da una asserzione a un'altra; per esempio in corrispondenza a una istruzione di tipo IF B THEN S si ha una regola che permette di passare da {Iv BI S {O} a {I} IF B THEN S {0}. I metodi di Floyd e di Hoare si prestano alla generazione meccanica della dimostrazione di correttezza. Con l'inizio degli anni settanta la disciplina della correttezza è diventata un capitolo autonomo e importante dell'informatica, veicolo di un ulteriore inserimento della logica nel bagaglio dei suoi strumenti indispensabili, ma anche di un ulteriore impulso allo sviluppo di nuovi formalismi e nuovi calcoli. La dimostrazione di correttezza in sé deve essere una dimostrazione matematica, in senso normale; può anche essere una dimostrazione non costruttiva che fa appello a concetti infinitistici, come appunto l'induzione transfinita (sia pure su ordinali costruttivi); non deve necessariamente essere una dimostrazione completamente formalizzata in un sistema logico. Tuttavia vi sono diversi motivi che spingono in questa direzione. Come mostra il formalismo di Floyd e Hoare, in un certo senso la dimostrazione più naturale è costruita appoggiandosi strettamente alle righe del programma e basandosi su asserzioni matematiche elementari, quelle relative alle 30 Si vedano Floyd, 1967 e Hoare, 1969.
www.scribd.com/Baruhk
Logica e calcolatore
funzioni calcolate. Ma entra in gioco anche un'idea filosofica relativa al rigore matematico; si pensa che il rigore a cui la matematica ha aspirato nel corso dell'Ottocento sia stato ottenuto solo con la formalizzazione, e che questa sia dunque una caratterizzazione perfetta della matematica; a niente di meno si deve puntare nell' assumerla come modello. Si pensa inoltre che rigore sia sinonimo di certezza assoluta, la stessa richiesta appunto dalle dimostrazioni di correttezza, resa possibile ora, non solo in linea di principio - come nei fondamenti della matematica - dalle macchine disponibili. Vi è infine la consapevolezza che di solito le dimostrazioni di correttezza non sono poi così impegnative dal punto di vista concettuale, ma richiedono soprattutto molta attenzione, pazienza e cura estrema dei dettagli, mentre se ci si affidasse alla elaborazione manuale o mentale si correrebbe il pericolo di introdurre errori dovuti alla disattenzione e alla stanchezza. In definitiva, le dimostrazioni di correttezza dei programmi sarebbero per loro natura più adatte alla elaborazione meccanica; d'altra parte, proprio la formalizzazione le rende adatte alla elaborazione meccanica. La logica si raccomanda perciò sia per capire e concettualizzare sia, nello stesso tempo, per parlare con i calcolatori e usarli nell'esecuzione dei passi logici. Le obiezioni sono agguerrite: 31 da una parte viene contestata la disciplina stessa della correttezza, innanzi tutto con l'accusa di banalità. Le dimostrazioni di correttezza si potrebbero dare solo per piccoli esempi, programmi in miniatura, o giocattolo; l'idea di passare da questi ai grandi sistemi, che sarebbero composti modularmente da programmi di base, è un'illusione: i programmi impegnativi non nascono in questo modo, bensì in modo caotico e «sporco», nel senso in cui ogni artigianato ha sempre difeso la propria approssimazione e mancanza di regole codificabili. La seconda accusa è quella della insignificanza. Se anche fosse disponibile un verificatore, lo scenario, secondo gli oppositori, sarebbe il seguente: il programmatore inserisce il suo codice di 300 righe di programma nel verificatore che ne avrà circa 2o.ooo e dopo alcune ore riceve la risposta «verificato »; che cosa sa di più? che tipo di confidenza maggiore ha nel suo programma? Gli oppositori della verifica sostengono che il concetto stesso è inutile, mentre ci si dovrebbe concentrare su quello di affidabilità, un concetto più ampio che comprende informazioni sulle prestazioni e sulla struttura. Tutti gli argomenti positivi sono rovesciati nel loro contrario: è proprio la formalizzazione spinta all'estremo che introduce le lunghezze esorbitanti e rende il compito della verifica una questione non solo noiosa, ma soggetta a maggiori pericoli di errori del programma originario. La polemica si estende, inevitabilmente, trasferendo gli stessi argomenti sulla dimostrazione matematica in generale. Il rigore della dimostrazione è visto come una illusione e un falso obiettivo, e soprattutto come una descrizione non realistica della pratica matematica, in cui la costruzione e l' ac31 Su tutta la discussione si veda Lolli, 1987.
99
www.scribd.com/Baruhk
Logica e calcolatore
cettazione dei teoremi ha lo stesso svolgimento approssimativo, informale, dialogico che si riscontra nella costruzione effettiva dei programmi. La dimostrazione è una discussione tra colleghi che mira a convincere e a ottenere l'approvazione sociale; questa sarà confermata soltanto dalla storia successiva delle utilizzazioni e della fecondità dei teoremi che hanno superato il vaglio della comunità. È da notare tuttavia che, proprio in riferimento alla verifica dei programmi, McCarthy aveva concepito più in generale il concetto di dimostrazione interattiva. Per definizione, dopo la precisazione del concetto di sistema formale, il concetto di dimostrazione è decidibile, ed esistono algoritmi per la sua verifica. Indubbiamente, la formalizzazione completa allunga il testo; per abbreviare la verifica McCarthy assume che il calcolatore abbia memorizzato una formalizzazione di un ramo rilevante della matematica e della logica, una base di teoremi precedentemente dimostrati e tecniche per generare dimostrazioni. n matematico allora « esprime le sue idee su come deve essere formata una dimostrazione combinando queste tecniche in un programma. L'esecuzione del programma porterà o a una dimostrazione del teorema, o all'indicazione di un banale errore, o a niente di definito ». 32 Per ottenere sistemi in cui le dimostrazioni non siano così lunghe come sono quelle basate su un numero fissato di regole, McCarthy immagina che si possa ripetutamente fare appello a procedure di decisione che esistono per larghe parti della logica - non solo quella proposizionale ma anche per classi di formule, per l'algebra elementare e per altre teorie - e che sono in via di espansione con sempre nuovi risultati. «Negli scritti di matematica, si incontrano spesso frasi come "il lettore potrà facilmente verificare che ... ", e "segue dalle equazioni (r) e (3) con un calcolo algebrico che ... ". Noi vorremmo considerare tali frasi come appelli a procedure di decisione che il lettore si suppone abbia disponibili. Se assumiamo questo punto di vista, tali dimostrazioni possono essere considerate rigorose, e persino formali, una volta precisato quali sono le procedure di decisione disponibili per il lettore. »33 La dimostrazione viene così ad articolarsi in moduli che sono costituiti dalla chiamata di procedure di decisione, con inframmezzate poche applicazioni delle vere e proprie regole logiche. Per realizzare l'idea, il verificatore - automatico - deve essere in grado non solo di svolgere passi di verifica formale delle regole logiche, ma anche di trasformarsi da verificatore in dimostratore, eseguendo le procedure di decisione richieste, quando gli sono richieste. La verifica della correttezza delle dimostrazioni si trasforma così insensibilmente nella costruzione di una dimostrazione a partire da alcune indicazioni strategiche. Le dimostrazioni diventano dialoghi tra il programmatore e il verificatore. Mentre nel settore della correttezza prevale l'idea di dimostrazioni interamente affidate al calcolatore, è proprio nella matematica che si hanno esempi clamorosi dell'impostazione suggerita da McCarthy. 32
McCarthy,
1962,
pp.
220-221.
33
Ibidem.
100.
www.scribd.com/Baruhk
Logica e calcolatore VIII
· LA
DIMOSTRAZIONE
ASSISTITA
DAL
CALCOLATORE
Si chiamano così le dimostrazioni in cui una parte essenziale viene ottenuta attraverso un programma che non può essere sostituito, per la lunghezza e gravosità dei calcoli, non dovuti a una cattiva programmazione, ma intrinseci alla natura del problema; l'alternativa è solo quella, in generale non percorribile, di un'impostazione completamente diversa della dimostrazione, che eviti i passaggi in questione. Si tratta di fatto di esempi delle dimostrazioni interattive descritte da McCarthy, senonché quelle più importanti non sono state ottenute, almeno per ora, affidando al calcolatore sequenze di passaggi logici da svolgere con un dimostratore automatico, universale o meno; piuttosto alle macchine sono state affidate parti consistenti di calcoli, ancorché non necessariamente numerici, programmmate ad hoc. n primo risultato che ha fatto scalpore è stata la dimostrazione del teorema dei quattro colori da parte di K. Appel e W. Haken34 nel 1976. Il problema dei quattro colori, proposto da F. Guthrie nel 1853, consiste nello scoprire se sia possibile colorare ogni carta geografica con soli quattro colori, in modo che regioni con un confine in comune non abbiano mai lo stesso colore (per semplicità si intende che il confine non si riduca a un punto). Le idee rivelatesi fondamentali per la dimostrazione risalgono ad A.B. Kempe, che nel 1879 elaborò appunto una dimostrazione ritenuta a tutt'oggi insuperata. Sono necessarie diverse trasformazioni del problema, prima di arrivare alla parte precisamente computabile, ed è bene averne un'idea - sia pure senza tutte le spiegazioni puntuali - per vedere che non tutto si riduce a bruto calcolo; come spesso si verifica, il problema deve essere pre-processed dal matematico. Si introduce il concetto di carta normale, una carta in cui nessuna regione ne contiene altre, e mai più di tre regioni concorrono in un punto. Se esistesse una carta che richiedesse essenzialmente cinque colori, ne esisterebbe anche una normale; si considera quindi una carta normale minimale, cioè con il minimo numero possibile di regioni, che richieda essenzialmente cinque colori. A questo punto si può (pensare di) derivare una contraddizione nel seguente modo: una carta normale minimale dovrebbe avere almeno una regione con cinque regioni adiacenti, che danno origine ad alcune configurazioni possibili; si tratta di dimostrare che ciascuna di queste è riducibile, nel senso che eseguendo una riduzione (una trasformazione opportunamente definita che conserva alcune caratteristiche essenziali) si ottiene una carta con un numero minore di regioni, contro l'ipotesi di minimalità. La dimostrazione che una configurazione è riducibile può essere programmata al calcolatore, che genera tutte le possibili colorazioni e per ciascuna esegue la riduzione. Ma anche con il calcolatore il tempo sarebbe eccessivo (espresso da una cifra maggiore della durata dell'universo) a causa del numero di configurazioni possibili. Occorre ridurre il numero 34 Si veda Appel e Haken, 1978.
IOI
www.scribd.com/Baruhk
Logica e calcolatore
delle configurazioni determinando un insieme inevitabile di configurazioni (sperabilmente) riducibili. Un insieme inevitabile è un insieme di configurazioni tale che ogni carta minimale ne deve contenere almeno uno. A questo insieme, di dimensioni abbordabili, si applicherà la procedura di riducibilità. Appel e Haken hanno dato un contributo decisivo alla elaborazione di programmi per generare insiemi inevitabili, prima di passare al calcolo vero e proprio: utilizzando il calcolatore, hanno scritto e sperimentato diversi programmi per generare insiemi inevitabili di configurazioni, fino a che questo lavoro ha permesso di produrre effettivamente un insieme inevitabile di configurazioni la cui riducibilità poteva addirittura essere fatta anche a mano. Su questo aspetto Appel e Haken hanno insistito, cercando di spostare la discussione sul piano della razionalità del procedimento, quando sono scoppiate le polemiche sui possibili, ed effettivi, errori e sulla affidabilità della loro dimostrazione. Gli errori non sono importanti se l'idea della dimostrazione è giusta. Alcuni errori subito individuati sono stati immediatamente corretti; soprattutto, si è compreso il genere sistematico di errori che potevano essere stati commessi; sono stati poi scritti programmi nuovi e usate macchine diverse per replicare il loro lavoro; nessuno ormai dubita più della correttezza del risultato. Ma a partire dal problema dei quattro colori si è sviluppata una complessa discussione sulla natura della dimostrazione. Le obiezioni sono di questo tipo: 35 nessun matematico ha mai visto una dimostrazione del teorema dei quattro colori, ed è probabile che mai la vedrà. Ciò che i matematici sanno è solo che esiste una dimostrazione che risponde a rigorosi canoni formali, al punto che è proprio fatta a macchina. Ma l'esistenza della dimostrazione è una informazione estrinseca; anche in altre circostanze i matematici sono informati che un collega ha dimostrato un teorema in una lontana università: ora, che ci sia la dimostrazione glielo assicura soltanto la macchina, e non c'è modo di invitare il collega a tenere un seminario per farsi esporre con calma la dimostrazione. Allora si conclude che questa è una dimostrazione di tipo nuovo, non è una deduzione a-priori di un enunciato dalle premesse, perché nella esposizione c'è una lacuna riempita solo da un esperimento. Se la dimostrazione viene accettata come dimostrazione legittima, bisogna concludere che cambia la natura della dimostrazione matematica e si deve riconsiderare il rapporto tra la matematica e le scienze naturali, dal momento che le dimostrazioni incorporano anche procedimenti comunemente chiamati esperimenti. Per dire che cambia la natura della dimostrazione, occorre definire tale natura. La nozione tradizionale di dimostraziooe dovrebbe implicare i requisiti seguenti: essere convincente, visualizzabile e formalizzabile. Il terzo requisito dovrebbe servire a facilitare il secondo, e quindi di riflesso il primo; ma al contrario, quando la dimostrazione è « nascosta» dentro una macchina, può diventare un elemento di 35 Si veda Tymoczko, 1979.
102
www.scribd.com/Baruhk
Logica e calcolatore
non visualizzabilità; quindi si può avere formalizzazione senza visualizzabilità, anzi in generale questo si verifica ogni volta che la formalizzazione è spinta all'estremo e i due criteri, invece di sostenersi, tendono a escludersi a vicenda. n convincimento fornito da una dimostrazione formalizzata e costruita da una macchina è allora di tipo empirico e non logico. Ai sostenitori della natura empirica della matematica si è obiettato con argomenti che attengono alla funzione della dimostrazione e alla distinzione di livelli diversi. La capacità di convincimento fornita dalla visualizzabilità sarebbe secondo gli empiristi di tipo logico a-priori, mentre quella fornita da una macchina sarebbe a-posteriori; nell'esigere la capacità di convincimento si chiede tuttavia qualcosa che non è una caratteristica essenziale e definitoria della dimostrazione, ma che ha a che fare piuttosto con la sua accettazione e sanzione da parte della comunità scientifica. La formalizzazione, al contrario, è legata alla logica, che fornisce la caratterizzazione definitoria della dimostrazione. Il carattere a-priori della logica non può dipendere da un fatto contingente come la visualizzabilità, realizzabile solo in casi banali, anzi tende proprio a escluderlo. È da sempre risaputo (fin da quando essa doveva essere eseguita a mano) che la dimostrazione formale esiste solo in linea di principio; nel momento in cui essa viene eseguita a macchina l'impossibilità pratica si ripresenta sotto forma di non visualizzabilità dell'operato della macchina stessa. D'altra parte la scoperta di una dimostrazione è un fatto creativo, salvo che in settori specifici, limitati e decidibili. Quando viene presentata una dimostrazione informale, viene anche fornita una serie di indicazioni per la costruzione di quella formale, costruzione che tuttavia non è mai spinta sino alla fine; il punto a cui ci si ferma dipende dal livello di conoscenze e di esperienza degli interlocutori. Se invece della spiegazione informale si dà un programma, e tale programma è comprensibile perché è motivato, conciso e magari accompagnato da una dimostrazione di correttezza accettabile, che sia a sua volta meccanizzata o no, allora l'accettazione di una dimostrazione di questo genere non cambia la natura della dimostrazione, anche se naturalmente cambia la prassi. Altri notevoli casi di dimostrazioni svolte con l'ausilio essenziale del calcolatore si sono avuti dopo il teorema dei quattro colori, anche se non hanno raggiunto il grande pubblico; basterà citare la prova della non esistenza di un piano finito proiettivo di ordine 10, ottenuta nel 1988. Un piano finito proiettivo di ordine n, con n > O, è un insieme di n2 + n + l rette e di n2 + n + l punti tali che: l) ogni retta contiene n+ l punti; 2) ogni punto giace su n + l rette; 3) due rette distinte si intersecano in uno e in un solo punto; 4) due punti distinti giacciono su una sola retta. L'esempio più semplice è il triangolo, per n= l; per n= 2 bisogna uscire dalla geometria euclidea e pensare a un triangolo ABC e alle mediane AD, BE e CF che si incontrano in O; A, B, C, D, E, F, O sono i 7 punti; le rette sono i lati e le mediane e una «retta» che passa per D, E e F. Non esiste un piano di ordine 6. n caso n= lO ha resistito a lungo. Il problema è connesso a molte altre interessanti que103
www.scribd.com/Baruhk
Logica e calcolatore
stioni (per esempio ai quadrati latini, che diedero origine a una famosa congettura di Eulero rivelatasi errata), nonché a problemi di codici; ed è proprio in questo contesto che un intensivo lavoro ha permesso di risolvere il problema. Il calcolo è stato ingente (pare siano state impiegate circa 2ooo ore), al punto che a un certo momento si è passati a utilizzare un calcolatore parallelo come il CRAY. Già ammaestrati dalle precedenti polemiche sui quattro colori, gli autori C.W.H. Lam, L.H. Thiel e S. Swiercz36 nella loro illustrazione non insistono tanto sul problema degli errori di programmazione, sapendo che sono analoghi a quelli che si possono fare in normali dimostrazioni discorsive; sono piuttosto preoccupati per gli errori di hardware, che possono portare a un cambiamento casuale di bit nella memoria. Statisticamente, pare che nel CRAY si verifichino questi errori una volta ogni mille ore di lavoro e che essi siano più difficili da scoprire di quelli di programmazione. Gli autori concludono rassegnati che « questo sfortunatamente è inevitabile in una dimostrazione basata sul calcolatore, che non è mai assoluta», confermando così la confusione che continua a regnare sull'idea di dimostrazione. Gli errori di hardware si possono paragonare a casi di cattivo funzionamento del cervello, anche se il cervello lavora con un tipo di affidabilità ben maggiore dei calcolatori. Il calcolatore, che ha permesso la grande conquista della dimostrazione automatica, sembra indurre anche, paradossalmente, una gran voglia di farla finita con la dimostrazione; nel 1993 è stato pubblicato su « Scientific American » un articolo di J. Horgan dal titolo significativo: Morte della dimostrazione. L'elemento che più spinge in questa direzione è la possibilità di compiere effettivamente, con la potenza di calcolo disponibile, esperimenti e verifiche empiriche su larga scala di congetture, soprattutto nel campo della teoria dei numeri. Gli esperti in questa nuova abilità tendono a sopravvalutarne i risultati e a sostenere che è sufficiente la conferma induttiva ottenuta attraverso ampie ricerche. Ma l'insofferenza per la dimostrazione si appoggia anche ad argomenti del tutto opposti, come il fatto che negli ultimi tempi grandi teoremi hanno comportato dimostrazioni praticamente non visualizzabili, benché tradizionali; queste dimostrazioni non sarebbero verificabili da nessun singolo matematico per la complessità, la lunghezza, la partecipazione multipla di diversi contributi. Un esempio citato spesso è la classificazione dei gruppi finiti, la cui dimostrazione, mettendo insieme tutte le parti, ammonterebbe a 5000 pagine. Altre aree, come la geometria algebrica in cui si è ottenuta recentemente la dimostrazione dell'ultimo teorema di Fermat,37 sono diventate così complesse che lavo36 Si veda il loro resoconto del 1989. 37 Andrew Wiles ha annunciato e presentato
una dimostrazione del teorema di Fermat nel giugno 1993, presso I'Isaac Newton Institute di Cambridge (Gran Bretagna). Nel dicembre dello stesso anno, Wrles ha ammesso pubblicamente la presenza di una lacuna nella dimostrazione, precisamente nel calcolo di un confine superiore per il gruppo di
Selmer. La difficoltà è stata poi aggirata, più che superata, nel settembre 1994 grazie a una nuova idea di R. Taylor. La dimostrazione è ora considerata completa dai maggiori esperti; si veda, per esempio, G. Faltings, The proo/ o/ Fermat's last theorem by R. Taylor and A. Wiles, in « Notices of the AMS >>, 42, 1995, pp. 743-746.
104
www.scribd.com/Baruhk
Logica e calcolatore
rarvi è possibile solo attraverso una conoscenza quasi esoterica, condivisa da pochi e trasmessa in modo non assoggettabile ai controlli minuti di una normale razionalità (che è proprio quello che, invece, in linea di principio, dovrebbe garantire la dimostrazione logica). Si tende così a privilegiare la congettura e l'intuizione brillante sulla fatica espositiva. Al tempo stesso è un fatto documentato (e pericoloso) che l'insegnamento scolastico incentrato sulle capacità di gestione delle macchine tende ad attutire le capacità logiche discorsive, e a farle ritenere superflue. IX · LA PROGRAMMAZIONE LOGICA E
IL
PROLOG
Un'alternativa all'uso dinamico e interattivo di euristiche e raffinamenti della risoluzione è, come già si è accennato, quella di scegliere la restrizione più forte (o la combinazione di quelle più forti e compatibili tra di loro) e incorporarla una volta per tutte nell'implementazione. Nella derivazione lineare, le richieste di memoria potrebbero ancora essere ridotte, se si potessero dimenticare del tutto le C.t una volta usatele per una risoluzione; allora le B.t non potrebbero che essere clausole dell'insieme originario, e la base di dati non crescerebbe con il progredire della ricerca. Tale restrizione si chiama restrizione dell'input. Si vede con facili esempi che la restrizione dell'input non è completa, non è cioè in grado di refutare semplici insiemi insoddisfacibili di clausole; è molto facile distruggere la completezza eliminando regole o vincoli necessari; in questo caso, la scoperta notevole è che la restrizione suddetta è completa su una classe di clausole che hanno ancora una forte capacità espressiva, oltre a una semplice caratterizzazione sintattica, il che è utile per poterle riconoscere e imparare a usare; si tratta delle cosiddette clausole di Horn. Una clausola di Horn è una clausola che contiene al più un letterale non negato; le clausole di Horn sono perciò della forma -.A 1 v ... v -,An vB, oppure -.A 1v ... v -,An oppure B, dove AI' ... , An e B sono atomiche. Le clausole del primo tipo sono dette miste, quelle del secondo tipo negative e quelle del terzo tipo positive; le clausole di Horn positive possono essere solo unitarie. La restrizione dell'input si può combinare con la restrizione basata su un modello, nel caso che gli assiomi e il supposto teorema siano di un tipo particolare. Se gli assiomi sono clausole positive o miste, e il quesito è espresso da una formula atomica C, allora --,C aggiunta alle altre clausole è l'unica clausola negativa dell'insieme da dimostrare insoddisfacibile; si può allora prendere un modello in cui tutte le formule atomiche positive siano valide (e che quindi sia un modello degli assiomi) e applicare la restrizione subordinata a questo modello, partendo da --,C con una derivazione lineare. Siccome --,C non può che essere risolta con uno degli assiomi che contenga un letterale positivo, la risultante è ancora una clausola negativa; tutte le clausole ottenute per risoluzione in questo modo sono negative e possono essere risolte solo con clausole che siano assiomi e non con clausole ottenute precedentemente per risoluzione. 105
www.scribd.com/Baruhk
Logica e calcolatore
La programmazione logica ha origine con il riconoscimento della efficienza di questa strategia per le clausole di Horn, 38 individuate indipendentemente da Colmerauer e collaboratori per ragioni di semplicità espressiva. Nell'ambito della programmazione logica si utilizza una notazione diversa da quella delle clausole, reintroducendo l'implicazione. Una formula di Horn è ora una formula del tipo A 11\ ... /\An ---? B, che si scriverà anche B f- Al' ... , An, dove Al' ... , An e B sono formule atomiche, in corrispondenza delle clausole del primo tipo; B è detta testa e Al' ... , An corpo della clausola; in corrispondenza delle clausole del secondo tipo si dovrebbe avere f- Al' ... , An che però sarà anche scritta ? f- A 1, ... , An, e in corrispondenza con quelle del terzo tipo B f-. Le formule del primo tipo esprimono il fatto che una congiunzione di formule atomiche implica una formula atomica. Quelle del terzo tipo sono atomiche. Le formule atomiche possono essere pensate come le unità di codifica minima e più semplice di informazioni nelle banche dati, in una rappresentazione dichiarativa. Le formule del terzo tipo sono dette anche fatti, e quelle del primo tipo leggi. Un programma è ora per definizione un insieme di formule del primo e del terzo tipo, cioè di fatti e di leggi. Invece di un programma si può anche parlare di una banca dati. Quelle del secondo tipo sono dette obiettivo, o goal. Possono essere formate da diversi sottogoal. Un goal come ? f- C rappresenta una interrogazione della banca dati; si vuole sapere se c segue dalle informazioni ivi contenute. n formato del linguaggio PROLOG è questo, a parte virgole, punti e altro cosiddetto «zucchero sintattico». n procedimento di esecuzione di un programma da parte di un interprete del linguaggio è una applicazione a cascata della risoluzione lineare. La regola di risoluzione applicata a Cf- Al' ... , An e a ? f- C dà come risultato una formula che si può scrivere ? f- Al' ... , An. Nella terminologia della programmazione logica non si parla più di risoluzione, ma del fatto che un goal si identifica con la testa di una clausola di programma e nel caso affermativo viene cancellato e si dice che è soddisfatto; al suo posto subentra come nuovo goal il corpo, se esiste, della clausola di programma utilizzata. La terminologia suggerisce un'identica procedura di calcolo e di semantica. n nuovo goal si cerca di risolverlo vedendo se il sottogoal A 1 coincide con la testa di una clausola A 1 f- B1, ... , Bm, nel qual caso il sottogoal si dice soddisfatto e il nuovo goal diventa ? f- BI' ... , Bm, A 2 , ... , An e così via fino alla clausola vuota, cioè fino ad aver soddisfatto tutti i goal (se A 1 coincide con un fatto, viene semplicemente cancellato). Ovviamente entrano in gioco anche gli unificatori, per cui si dice, più propriamente, che un sottogoal unifica con la testa di una clausola del programma, e l'unificatore viene applicato a tutta la clausola. La variabile o le variabili contenute nel goal hanno un carattere esistenziale, mentre quelle del programma sono universali; la variabile del goal è quella per cui 38 Si veda Kowalski, 1979.
106
www.scribd.com/Baruhk
Logica e calcolatore
si vuole sapere se esiste un valore che soddisfa il goal. Formalmente, la formula del goal C proviene dalla interrogazione 3 x C, che nella negazione si trasforma in Vx---, C, e, lasciando cadere tutti i quantificatori universali, diventa ? f - C, ma la variabile incorpora questa richiesta di specificazione. La domanda è: « esiste un x per cui C è conseguenza del programma? » Il valore fornito dalla risposta è il valore che x viene ad assumere nel corso della derivazione sotto l'azione di tutte le sostituzioni. Se ce ne sono più di una possibili, l'interprete le dà normalmente tutte; le diverse soluzioni di solito corrispondono a risoluzioni dello stesso sottogoal con clausole diverse. L'interprete di un programma PROLOG sviluppa un albero di possibili derivazioni, in quanto un goal può unificare con la testa di più di una clausola, e allora ci sono diverse successioni che sono derivazioni; le diverse derivazioni sono i rami dell'albero; siccome le clausole del programma, e ogni formula all'interno di una clausola, sono ordinate in maniera rigida, la struttura dell'albero delle derivazioni dipende da tale ordine; a seconda di come l'albero viene generato si può trovare o meno la derivazione, in tempo più o meno breve, o ci si può anche infilare in un ramo infinito che non porta alla risposta, mentre un'altra strada potrebbe garantire il successo. La scrittura del programma diventa perciò di nuovo un affare delicato, in cui il programmatore deve conoscere e saper sfruttare la strategia di generazione dell'albero incorporata nell'interprete. L'albero è generato secondo la strategia della profondità, non della larghezza, e questo può provocare dei cicli. Un programma come r) p f - p, 2) p f - entra in ciclo banalmente per il goal ? f - p, se è dato proprio in questo ordine, mentre fornisce subito la risposta se le due clausole del programma sono scritte nell'ordine invertito. Questo esempio dà un'idea dei problemi che si possono presentare in situazioni più complesse, in particolare nei casi di ricorsione, dove non sempre la soluzione è evidente. Si prenda come esempio un programma che si potrebbe considerare un sistema esperto in miniatura per lo studio della genealogia; « an t » (per « antenato ») e «padre» sono due predicati (si tralasciano per brevità le clausole per il predicato «madre»); le costanti per i nomi sono rese da successioni qualunque di lettere ant(x, z)
f-
padre(x, y), ant(y, z)
ant(x, y)
f-
padre(x, y)
padre(Ur, Ber)
f-
padre(Us, Ber)
f-
padre(Ber, Gic) ant(Gic, Mo)
f-
f-
Un goal come ? f - ant(x, Mo)
107
www.scribd.com/Baruhk
Logica e calcolatore
chiede qual è la discendenza di Mo, di chi Mo è antenato. Un goal come ? f - ant(Us, x) chiederebbe chi sono gli antenati di Us. E si potrebbe anche chiedere ? f - ant(x, y). Se l'ordine delle clausole è proprio quello scritto, il goal unifica con la prima clausola, e il nuovo goal diventa ? f- padre(x, y), ant(y, Mo); padre(U r, Ber)
f-
soddisfa il primo sottogoal, e resta ? f - ant(Ber, Mo).
Tornando a unificare questo con la prima clausola, si ottiene di nuovo ? f- padre(Ber, y), ant(y, Mo), che viene soddisfatto dagli ultimi due fatti. Il goal iniziale è dunque soddisfatto, ma la risposta non è solo un SI; la risposta dice con quali valori è stata sostituita la x del goal iniziale per arrivare alla conclusione, vale a dire x= Ur. A questo punto l'interprete riesamina il procedimento per vedere se è possibile un'altra unificazione, e ha successo con x= Us, ripetendo esattamente lo stesso procedimento. Infine anche x= Ber ha successo, con un procedimento diverso più breve, perché ? f - padre(x, y), ant(y, Mo)
viene immediatamente soddisfatto dagli ultimi due fatti. Il lettore attento noterà un fatto strano, e cioè che non si ottiene per questa strada la soluzione x= Gic, pur essendo esplicitamente scritto tra i fatti ant(Gic, Mo). Non c'è via d'uscita, con questo programma; il fatto ant(Gic, Mo) va scritto al primo posto, e i fatti in genere devono precedere le leggi, in presenza di clausole ricorsive come ant(x, z) f - padre(x, y), ant(y, z). Le clausole ricorsive sono molto importanti, e richiedono particolare attenzione; se per esempio quest'ultima fosse stata scritta come ant(x, z)
f-
ant(y, z), padre(x, y),
allora ? f - ant(y, Mo) sarebbe stato soddisfatto da ant(Gic, Mo), e ? f - padre(x, Gic) con x= Ber, ma si sarebbe trovata solo questa soluzione, e solo se, di nuovo, ant(Gic, Mo) fosse stato al primo posto, altrimenti si sarebbe avuto un ciclo continuo tra il goal e la prima clausola induttiva. Le clausole ricorsive sono importanti per poter definire tutte le funzioni ricorsive, disponibili nel PROLOG (che per questo è un sistema universale). Le funzioni ricorsive possono essere presentate come relazioni e quindi definite attraverso formule atomiche; per esempio 108
www.scribd.com/Baruhk
Logica e calcolatore
add(x, o, x)
f-
add(x, s(y), z)
f-
S(z, w), add(x, y, w)
è un possibile programma per il calcolo dell'addizione, se S è la relazione di successore e s la funzione successore incorporata nel sistema. Di nuovo ci si imbatte in problemi di scrittura, che però non hanno sempre la stessa soluzione. Supponiamo che anche S sia programmata, da S(s(o), o) fS(s(x), s(y) f- S(x, y).
Per calcolare la somma di 2 e di 2 si deve soddisfare il goal ? f - add(2, 2, z). Se le clausole sono scritte proprio in questo ordine, allora il nuovo sottogoal diventa ? f - S(z, w) che viene soddisfatto da S(s(o), o) f - lasciando ? f - add(2, r, o); questo a sua volta dà ? f - S(o, w) che non è soddisfacibile. Invece se la clausola è scritta add(x, s(y), z)
f-
add(x, y, w), S(z, w)
si arriva a ? f - add(2, o, u), S(w, u), S(z, w) quindi a ? f - S(w, 2), S(z, w) da cui poi si arriva alla fme con z = 4· Ma l'esempio era costruito ad hoc, perché in generale conviene nella ricorsione che il predicato della testa occorra nel corpo all'ultimo posto come nell'esempio degli antenati. Gli interpreti PROLOG sviluppano l'albero delle derivazioni secondo la profondità; ciò significa che imboccata una strada la si percorre senza ripensamenti, senza tornare indietro, se non quando si è avuto successo oppure si è arrivati a un punto morto. La strategia ha il vantaggio della velocità, ma anche alcuni svantaggi, quando si finisce su un ramo infinito; sono perciò stati predisposti artifici per controllare questa generazione da parte del programmatore ed eventualmente forzare il backtracking e l'esplorazione di vie alternative che si erano lasciate indietro, oppure, con il cut, bloccare la ricerca alternativa se interessa una sola soluzione. Sono costrutti non di tipo logico, ma previsti dal linguaggio per controllare la ricerca, interromperla, riorientarla. L'estensione a interrogazioni negative -,C ha portato all'aggiunta di un'altra regola non logica, cioè alla strategia detta di negazione per fallimento; per rispondere a una interrogazione negativa, si aggiunge al programma il goal C e se questo non è soddisfatto, con una ricerca finita, allora il goal -,C viene dichiarato soddisfatto. Praticamente, è come assumere che se qualcosa è non contraddittorio, allora
www.scribd.com/Baruhk
Logica e calcolatore
è una conseguenza (tralasciando l'ulteriore restrizione che la risposta si abbia in un tempo finito). Altre estensioni a frammenti più ampi del linguaggio sono state studiate e sperimentate, ma nessuna permette l'efficienza di elaborazione delle clausole di Horn. Gli interpreti dei linguaggi PROLOG, dunque, introducono rispetto alle pure nozioni logiche di conseguenza una serie di limitazioni e distorsioni; tuttavia il programmatore, anche se non può dimenticare del tutto i dettagli della implementazione, tratta solo formule logiche, e la nozione di variabile della programmazione non interviene nella sua gestione. La programmazione logica è diventata un'alternativa al LISP preferita per i sistemi esperti, che sono in generale formulati in termini di regole (come il sistema esperto per la genealogia di sopra) estratte dall'esperto a partire dall'insieme di conoscenze a cui egli fa consapevolmente riferimento. X
• LA
LOGICA
E
LA
RAPPRESENTAZIONE
DELLA
CONOSCENZA
Nel perfezionamento della dimostrazione automatica si può vedere, da una parte, la logica che sfrutta lo strumento informatico per realizzare concretamente alcune caratteristiche intrinseche alla sua natura, ma che per dispiegarsi avevano bisogno di quel supporto tecnologico; dall'altra, la logica che plasma lo strumento stesso per una sua utilizzazione più completa e, quasi si potrebbe dire, naturale. Le interazioni tra logica e macchine non si esauriscono nel programmare la logica e nel rendere logica la programmazione. Un altro ruolo giocato dalla logica è stato quello di offrire, con i suoi diversi linguaggi, uno strumento per l'analisi dei sistemi informatici; la verifica della correttezza dei programmi si potrebbe far rientrare in queste applicazioni, in cui, accanto alla logica classica, hanno una parte importante, per esempio, le logiche temporali per lo studio della dinamica dei programmi. Altrettanto notevole è la funzione della logica come insieme di strumenti di rappresentazione della conoscenza per la realizzazione dei progetti dell'Intelligenza Artificiale; questo aspetto rientra più propriamente nella trattazione dei fondamenti dell'Intelligenza Artificiale, a cui si rimanda, 39 ma va ricordato in questa sede per segnalarne i riflessi sulla logica stessa. Si tratta di un fenomeno di enormi proporzioni, che richiederebbe una trattazione a parte. Quasi tutte le logiche note sono state utilizzate, o modificate, per queste applicazioni (anche e soprattutto le logiche non classiche); altre sono state inventate, e per ciascuna sono stati elaborati o perfezionati metodi di dimostrazione automatica. La posizione logicista sostiene che l'intelligenza richiede una rappresentazione del mondo - incluso il mondo intellettuale della matematica - sulla base della quale e delle informazioni provenienti dall'esterno l'ente risponda, deducendo logicamente le risposte, a domande del tipo: « cosa accadrà se si esegue una certa 39 Si veda il cap.
IV
del presente volume.
IlO
www.scribd.com/Baruhk
Logica e calcolatore
azione », « cosa è necessario per ottenere un certo effetto » e così via. Il primo problema, nell'ideazione e realizzazione di un tale progetto, è quello della rappresentazione della informazione; « una rappresentazione gioca un ruolo dominante e nei sistemi più semplici può essere l'unica presente. È la rappresentazione per mezzo di insiemi di enunciati di un opportuno linguaggio logico formale ». 40 Una volta fatta questa scelta, tuttavia, i linguaggi della logica classica si rivelano insufficienti per trattare la complessità dei fenomeni ed è necessario il ricorso ad altre logiche. Citiamo come esempio la logica epistemica, che interviene quando il ragionamento coinvolge la conoscenza stessa. Non solo questo elemento di autoriferimento è un fattore importante della manifestazione dell'intelligenza umana, ma lo si ritrova anche nelle realizzazioni tecnologiche. La logica epistemica risale, nella versione attuale, agli scritti di G.H. von Wright (n. 1916) degli anni cinquanta, 41 e fu poi sviluppata da J. Hintikka (n. 1929) 42 negli anni sessanta, inizialmente con interessi filosofici classici; successivamente, essa si è rivelata utile in diversi campi, dall'economia all'Intelligenza Artificiale all'informatica. Rispetto all'impostazione tradizionale, due nuovi aspetti vengono maggiormente sottolineati. Innanzi tutto è diventato più rilevante - e a volte addirittura di importanza drammatica - il legame tra conoscenza e decisioni: quando un robot ha e sa di avere la conoscenza necessaria a svolgere il compito affidatogli? quando una base di dati deve rispondere «non so» oppure rispondere comunque? Un altro tema importante è quello delle conoscenze di gruppo. Che si voglia analizzare una conversazione tra persone, o una contrattazione tra agenti, o le comunicazioni tra robot, o un protocollo gestito da processi in un sistema distribuito, si ha in ogni caso a che fare con agenti che, oltre ad avere conoscenze sul mondo, hanno anche o devono avere conoscenze sulle conoscenze degli altri membri del gruppo. Da un punto di vista formale, non importa che gli agenti siano umani; possono anche essere pezzi di hardware, e non è assurdo, se pure insolito, assegnare loro conoscenza, sulla base della funzione che svolgono. Rispetto ai nuovi problemi, nuovi concetti assumono maggiore rilievo; se, per esempio, nello studio delle convenzioni umane era fondamentale il concetto di conoscenza comune (quella che tutti i membri del gruppo possiedono), nello studio dei sistemi diventa più interessante il concetto di conoscenza distribuita (per cui solo mettendo insieme tutte le conoscenze si può dedurre qualche informazione che nessun membro singolarmente preso può dedurre). Il ragionamento che coinvolge la conoscenza può essere molto sottile nel contesto dei gruppi. Un esempio tipico è rappresentato dal puzzle dei bambini con la faccia sporca. Supponiamo ci siano n bambini che giocano e naturalmente contravvengono la raccomandazione fatta loro di non sporcarsi. Immaginiamo che durante il gioco k bambini si sporchino in faccia, e che ognuno possa vedere il volto degli 4~
40 McCarthy e Hayes, 1969, pp. 465-466. 41 Si veda in particolare dell'autore An essay in moda! logic, 1951.
Di Hintikka si veda Knowledge and belie/,
196~.
III
www.scribd.com/Baruhk
Logica e calcolatore
altri ma non il proprio. Quando tornano a casa, la madre li rimprovera affermando che « almeno uno di voi ha la faccia sporca », e chiede « chi sa di avere la faccia sporca? »; nessuno ammette la propria colpa, che non può peraltro vedere, pensando che si riferisca ad altri. La madre continua, tuttavia, a ripetere la domanda « chi sa di avere la faccia sporca? » e, contrariamente a quel che di norma si crede, la ripetizione della domanda ha un effetto, nel senso che ne cambia la natura: alle prime k - l iterazioni della domanda, nessuno dei bambini risponde, ma alla k-esima volta tutti i bambini con la faccia sporca ammetteranno simultaneamente la propria colpa. Si suppone naturalmente che i bambini siano sinceri e sappiano ragionare. La dimostrazione è facile; si pensi al caso k = 2; alla prima domanda, i due bambini A e B con la faccia sporca non parlano, perché aspettano che sia l'altro a parlare; alla seconda domanda tuttavia, sapendo che nessuno ha risposto alla prima, A (ma anche B simmetricamente) può far questo ragionamento: B non ha parlato alla prima domanda, questo significa che ha visto qualcun altro con la faccia sporca, altrimenti sapendo che uno almeno di noi aveva la faccia sporca e che nessun altro la aveva sporca avrebbe dedotto di essere lui in fallo; ma io vedo che tutti gli altri non hanno la faccia sporca, e quindi sono io quello che B vede con la faccia sporca. A questo punto A (e B) rispondono autoaccusandosi. Il caso generale si tratta per induzione. Per dominare situazioni di questo genere (e altre più complicate e più serie) occorre un formalismo particolarmente sofisticato; non tanto per esprimere il fatto statico che un agente abbia una conoscenza - questo si può fare con semplici operatori modali - ma piuttosto per esprimere i vari stati di conoscenza, che possono variare nel tempo. A questo scopo si è rivelata utile e imprescindibile la semantica dei modelli di Kripke, interpretando i « mondi possibili » come « stati di conoscenza ».43 Più in generale, per tutte le logiche non classiche che si sono rivelate utili, se si cerca di capire che cosa serve, oltre alla precisione del linguaggio data dalla formalizzazione, si vede che quello che è maggiormente importante è proprio la semantica. Così si spiega l'affermazione secondo cui « la principale attrazione della logica del primo ordine è che la sua teoria dei modelli è così semplice, così largamente applicabile, e tuttavia così potente ». 44 Con logica del primo ordine si intende, tuttavia, in questo contesto ogni semantica estensionale (insiemistica) con una assiomatizzazione completa. L'apparente forzatura terminologica è giustificata dal fatto che ognuna di tali logiche è in effetti, attraverso l'espressione insiemistica della sua semantica, riducibile alla logica universale del primo ordine (così come lo è deduttivamente attraverso l'effettività delle sue regole). Il logico applicato, nell'ambito dell'Intelligenza Artificiale, è soprattutto un costruttore di semantiche trattabili da sistemi automatici. «Dobbiamo apprezzare i teoremi di completezza: essi sono cose belle e rare. Senza di essi, non abbiamo 44 Hayes, 1985, pp. u-12.
43 Si veda Fagin e altri, 1995.
II2
www.scribd.com/Baruhk
Logica e calcolatore
alcuna buona giustificazione per la nostra pretesa di sapere come le nostre teorie dicono quello che noi pretendiamo che esse dicano sui mondi che vogliamo descrivere». Solo che non sempre riesce. «Si consideri la possibilità di arricchire un linguaggio formale con l'introduzione di un nuovo simbolo, diciamo un quantificatore M che io pretendo significhi "la maggior parte". Non ho difficoltà a dare una teoria dei modelli: MxP(x) è vero in un modello quando P è vero di più della metà dell'universo. Io posso pretendere questo, ma la pretesa è prematura finché io non posso descrivere qualche meccanismo di inferenza che catturi quella intepretazione, generando tutte le inferenze che essa giustifica e nessuna di quelle che vieta. E questo potrebbe essere difficile. Per alcune teorie dei modelli sappiamo che è impossibile. »45 «La maggior parte» è un esempio delle nozioni intensionali che ricorrono nel parlare comune. Nel fondare sulla logica la rappresentazione delle conoscenze e l'intelligenza, i logicisti avevano ritenuto dapprima che anche il senso comune potesse essere rappresentato da deduzioni logiche, quelle di carattere breve e immediato. In seguito ci si è dovuti ricredere sulle difficoltà insite in questa nozione. Le situazioni di senso comune si distinguono per la disponibilità di una conoscenza solo parziale, per l'incertezza su quali sono i fenomeni rilevanti di cui occorre tenere conto e per il carattere estremamente complicato delle strategie di soluzione a tal punto che si è costretti a ripiegare su soluzioni approssimate, con sistemi le cui leggi non sono del tutto note. In queste situazioni si presenta il fenomeno della non monotonia delle credenze (oltre ad altri, come quello della vaghezza); l'aumento dell'informazione non porta a un aumento delle conclusioni inferibili, ma può costringere a ritirare precedenti conclusioni provvisorie dedotte sulla base delle premesse disponibili. Le informazioni sono raccolte in espressioni compatte di carattere universale, le cosiddette leggi. Le leggi, soprattutto quelle di carattere induttivo, sono sempre rivedibili; se tra le leggi ve n'è una che dice che i cigni sono bianchi, e poi arriva la notizia di un cigno nero, tutto quello che si è dedotto da quella legge deve essere modificato o sospeso (per esempio la nostra credenza che Swanny, che ci avevano detto essere un cigno, sia bianco). Le leggi non esprimono una universalità assoluta, ma quello che «di norma» è valido, per quel che si conosce. L'uso dei quantificatori universali non è perciò espressivamente adeguato o richiede un loro diverso trattamento. La rivedibilità sembrerebbe implicare che le conclusioni non siano ottenute attraverso deduzioni, e quindi non valga la relazione di conseguenza logica. Ciò nonostante sono stati proposti diversi sistemi per formalizzare il ragionamento non monotòno per mezzo degli usuali sistemi di logica. L'inferenza non monotòna può essere espressa nel formalismo logico, anche se a prezzo della perdita dell'effettività, per esempio introducendo nelle deduzioni il riferimento alla nozione di coe45 Ibidem.
113
www.scribd.com/Baruhk
Logica e calcolatore
renza. Inoltre le teorie non sono caratterizzabili come insiemi di enunc1at1 ven m una classe di modelli, ma solo in modo più complicato: le teorie sono generate da operatori che associano a insiemi di enunciati l'insieme delle conseguenze, e rappresentano i punti fissi di tali operatori, cioè gli insiemi su cui gli operatori si stabilizzano. La costruzione dei punti fissi non è in generale effettiva. McCarthy ha dato importanti contributi a questi studi con il concetto di circoscrizione, che si ispira al trattamento che subiscono tali fenomeni nei calcolatori; ha supposto che l'estensione di un predicato sia la minima compatibile con quanto positivamente noto ed espresso. 46 A una versione assiomatica della circoscrizione, nel linguaggio del secondo ordine, corrisponde anche lo studio di modelli minimali (rispetto all'estensione di predicati). Un'altra impostazione è quella realizzata dalle regole di default, ispirate ad alcune caratteristiche dei frame di Minsky - un formalismo di rappresentazione in cui sono disponibili per certi concetti dei valori prototipali: in assenza di informazioni al contrario si assumono le proprietà previste dalla norma. « In mancanza di informazioni contrarie, assumi questo » è un modo di dire che equivale, in termini più logici, al fatto che se non è derivabile la negazione di una affermazione, allora si può aggiungere l'informazione. Un campo in cui si constata la non monotonicità delle inferenze effettivamente eseguite è quello della programmazione logica, in riferimento alla regola di negazione per fallimento. La regola di aggiungere alla banca dati ciò che non è contraddittorio con essa ha se si vuole un carattere logico, ma non è una regola come quelle dei sistemi formali, perché la non contraddittorietà non è decidibile, salvo casi particolarmente semplici. Il progresso delle ricerche suggerisce dunque la sperimentazione di nuove tecniche e nuovi sistemi inferenziali, oltre all'applicazione di quelli disponibili. Anche nel settore delle logiche costruttive sono state inventate nuove logiche, come quella lineare che tiene conto della scarsa disponibilità delle risorse. Altri progressi verranno dall'evoluzione dei sistemi e della programmazione, che ormai è soprattutto rivolta alla gestione di reti e di sistemi collaborativi o coordinati; gli strumenti adatti alla loro formalizzazione attendono forse ancora di essere ideati.
46 Si veda McCarthy, 1980.
Il4
www.scribd.com/Baruhk
CAPITOLO
TERZO
Teoremi e congetture DI UMBERTO BOTTAZZINI
I
· INTRODUZIONE
Discutendo dei problemi filosofici della matematica moderna, nel VI volume di questa opera Ludovico Geymonat sottolineava l'importanza decisiva che l'introduzione del metodo assiomatico ha avuto per lo sviluppo della matematica nel nostro secolo. Importanza non solo dal punto di vista filosofico ma anche da quello strettamente matematico. Dopo aver ricordato l'affermarsi del metodo nei primi decenni del Novecento con l'assiomatizzazione della teoria degli insiemi, della topologia, dell' algebra astratta, dell'analisi funzionale, della teoria della probabilità, Geymonat aggiungeva: « Questo rapido e mirabile sviluppo ha fatto sorgere la convinzione che fosse possibile tentare una presentazione assiomatica di tutte le branche fondamentali della matematica, gerarchicamente disposte le une rispetto alle altre». Verso la metà degli anni trenta, questa convinzione ha animato un gruppo di giovani matematici francesi, riuniti sotto il nom de plume di Nicolas Bourbaki. Essi diedero vita a un progetto enciclopedico che iniziò nel 1939 con la pubblicazione di un primo fascicolo dedicato alla teoria degli insiemi e poi continuò nel dopoguerra con una serie di fascicoli e di volumi. «Negli ultimi anni però - scriveva allora Geymonat - è invece diminuito, almeno in percentuale, il numero dei fascicoli integralmente nuovi e, cosa particolarmente significativa, questi non sono più usciti nell'ordine gerarchico che aveva caratterizzato l'inizio della serie, onde qualcuno comincia a parlare di "crisi del bourbakismo"». Oggi non solo quell'accenno alla crisi appare pienamente giustificato, ma anzi il programma bourbakista appartiene ormai al passato, tra le grandi illusioni di poter abbracciare l'intera matematica da un punto di vista unitario. Un'illusione che era stata anche di D. Hilbert, motivata dalla preoccupazione di difendere l'unità della matematica di fronte ai rischi dello specialismo. « Con l'estendersi della scienza matematica - si chiedeva Hilbert nella sua celebre conferenza sui Problemi matematici che tenne al Congresso internazionale dei matematici di Parigi (19oo) non diventerà alla fine impossibile per il singolo ricercatore comprenderne tutte le parti? » La risposta di Hilbert potrebbe figurare in una pagina di Bourbaki: « Più una teoria matematica viene sviluppata, tanto più armoniosamente e unitariamente 115
www.scribd.com/Baruhk
Teoremi e congetture
si configura la sua costruzione e tanto più vengono scoperte relazioni insospettate tra branche fino allora separate. Così risulta che, estendendosi la matematica, il suo carattere unitario non viene perso ma, anzi, si manifesta ancor più chiaramente». Come quello hilbertiano, anche il programma bourbakista si è rivelato particolarmente fecondo. L'opera dei bourbakisti ha introdotto in matematica concetti e teoremi che hanno consentito di affrontare con successo antichi problemi e di aprire la via a interi nuovi campi di ricerca, rivelando legami profondi e nascosti tra oggetti e teorie a prima vista lontani e diversi. Paradigmatico è il caso della geometria algebrica, di cui si è ampiamente discusso nel volume VII di questa opera proprio per la sua particolare rilevanza per la problematica dei fondamenti. A ragione è stato scritto che la matematica sta attraversando una nuova età dell'oro, dopo gli splendori della scienza greca e i grandi successi del calcolo alla fine del Seicento. La ricchezza di risultati e teorie ottenute in questa scienza nei cinquant'anni che ci separano dalla fine della seconda guerra mondiale è stata infatti tale da superare il complesso di tutta la produzione matematica precedente. E, come paventava Hilbert, anche in matematica, come negli altri campi della scienza, la crescente specializzazione ha reso i risultati della ricerca più avanzata nelle diverse branche difficilmente dominabili da coloro che non sono specialisti dell'argomento. Negli ultimi decenni è stata così abbandonata l'originaria convinzione enciclopedica dei bourbak.isti. Come pure la ricerca di grande teorie unificanti: la matematica è un corpo in continuo e imprevedibile sviluppo, un'attività creativa che si lascia difficilmente imbrigliare all'interno di categorie predeterminate, per quanto generali e comprensive esse siano. Conviene tuttavia partire da un riesame critico del programma bourbakista, per capire la prospettiva in cui si collocano alcuni dei più recenti sviluppi della matematica che hanno posto sotto una nuova luce il problema della rilevanza filosofica di questa disciplina. II
· L'ARCHITETTURA
DELLE
MATEMATICHE
È ormai noto da tempo che dietro lo pseudonimo di Bourbaki si celava un gruppo di giovani matematici francesi. I « membri fondatori » che verso la fine del 1934 diedero vita al gruppo erano Henri Cartan, Claude Chevalley, Jean Delsarte, Jean Dieudonné e André Weil. Come ha scritto quest'ultimo nella sua autobiografia Souvenirs d'apprentissage (1991), la motivazione iniziale era di tipo didattico. Eravamo alcuni amici che insegnavano le stesse cose in diverse università, ricorda Weil. Perché non metterei insieme e decidere una volta per tutte come regolarci? Con un obiettivo circoscritto: riscrivere il Cours d'analyse (1910) di Edouard Goursat, il celebre trattato che tanto successo aveva conosciuto al suo apparire ma che agli occhi dei bourbakisti appariva ormai obsoleto e insoddisfacente. Dopo i primi incontri e le prime discussioni, il progetto iniziale si trasformò in un obiettivo molto più ambin6
www.scribd.com/Baruhk
Teoremi e congetture
zioso: fornire una presentazione unitaria della matematica basata su un unico fondamento, la teoria assiomatica degli insiemi. «L'idea che divenne dominante fu che il nostro lavoro doveva fornire in primo luogo uno strumento. Doveva essere qualcosa di utilizzabile non solo in una piccola regione, ma nel più gran numero possibile di domini della matematica. Fu da questa esigenza che emerse il ruolo centrale attribuito all'idea di struttura matematica» (Dieudonné, 1970). Come aveva fatto Bartel van der Waerden nella Moderne algebra (1930), anche i bourbakisti evitarono di prendere in considerazione «le difficoltà dei fondamenti». I paradossi « che avevano terrorizzato i contemporanei di Cantor » diventavano ai loro occhi degli « pseudoproblemi »: gli oggetti coi quali avevano a che fare le antinomie di Russell o di Burali-Forti, insiemi di tutti gli insiemi o cose del genere, come pure i paradossi semantici del Mentitore o di Richard, erano «lontani dalla pratica dei matematici». Da Zermelo in poi, la logica e la teoria de~li iusiemi erano state sistematizzate «in modo da rispondere a tutti i bisogni» del matematico. Altrettanto lontane dalla pratica dei matematici erano le preoccupazioni ontologiche: « Ciascuno è libero di pensare ciò che vuole sulla natura degli enti matematici o sulla verità dei teoremi che utilizza, purché i suoi ragionamenti possano essere trascritti nel linguaggio comune [cioè di Zermelo-Friinkel] » ha scritto Bourbaki. Con l'affermarsi del punto di vista bourbakista, questo atteggiamento pragmatico è diventato usuale nella comunità dei matematici, tanto da far dire a Dieudonné in Matematica e logica nel r98o (1981) che «in pratica i matematici non si preoccupano affatto del sistema di Zermelo-Friinkel. Oggi i matematici, quando scrivono un'opera di matematica, utilizzano puramente e semplicemente l'antico e semplice linguaggio degli insiemi di Cantor ». Un ruolo centrale era affidato dai bourbakisti alla nozione di struttura, definita introducendo una o più relazioni sugli elementi degli insiemi considerati e richiedendo per esse che certe condizioni (gli assiomi della struttura) fossero soddisfatte. Abbracciando da un punto di vista unitario domini fino ad allora diversi della matematica, la nozione di struttura rendeva obsolete le tradizionali suddivisioni in algebra, geometria e analisi, paragonabili, secondo Dieudonné, alle « suddivisioni degli antichi zoologi». Bourbaki individuava tre grandi tipi di «strutture madri»: le strutture algebriche, d'ordine e topologiche. Nelle prime le relazioni che intervengono sono una o più «leggi di composizione» tra gli elementi di uno stesso insieme (ossia operazioni che a una coppia di elementi dell'insieme associano un elemento dell'insieme). Si generano così le strutture di gruppo, di anello, di campo, o strutture più complesse. Nelle strutture d'ordin_e trovano espressione le proprietà dell'ordinamento che si possono definire su insiemi. Infine le strutture topologiche « forniscono una formulazione matematica astratta alle nozioni intuitive di essere vicino, di limite e di continuità, cui ci conduce la nostra concezione dello spazio» (Bourbaki, 1962). 117
www.scribd.com/Baruhk
Teoremi e congetture
Accanto a quelle fondamentali, osservava Bourbaki, nella pratica dei matematici si presentano continuamente strutture «composte», in cui si intrecciano più strutture «madri». Un esempio paradigmatico è costituito dall'algebra topologica, in cui negli anni trenta trovarono formulazione le originarie idee di Lie sui gruppi continui di trasformazioni (le operazioni algebriche sono dunque, rispetto alla topologia considerata, funzioni continue degli elementi su cui sono definite), o anche dalla topologia algebrica, dove lo sviluppo della teoria degli spazi fibrati e delle connessioni di Elie Cartan ha portato al costituirsi della moderna analisi sulle varietà. Qual era l'architettura della matematica che presentava Bourbaki? Con una metafora, era quella di una città, i cui sobborghi non cessano di crescere, talvolta in modo un po' caotico, mentre il centro viene periodicamente ricostruito, « ogni volta seguendo un piano più chiaro e un ordinamento più maestoso, distruggendo i vecchi quartieri col loro dedalo di viuzze, per lanciare verso la periferia dei viali sempre più diretti, più larghi e più comodi». III
·
LA
MATEMATICA
BOURBAKISTA
A partire dal 1939 cominciarono ad apparire i fascicoli degli Elements de mathématiques di Bourbaki, annunciati da un fascicolo di risultati. Come quelli euclidei, anche gli Elements di Bourbaki sono divisi in Libri: a partire da quello sulla teoria degli insiemi, sono stati pubblicati poi quelli di Algebra, Funzioni di una variabile reale, Topologia generale, Spazi vettoriali topologici, Integrazione, Algebra commutativa, Varietà differenziabili e analitiche, Gruppi e algebre di Lie, Teorie spettrali. Si tratta di un corpus imponente al quale hanno contribuito numerosi matematici che nel corso degli anni hanno sostituito i «padri fondatori». L'influenza del punto di vista bourbakista ha profondamente trasformato interi campi della matematica, a cominciare dalla geometria algebrica. I metodi dei geometri italiani, che tanto fecondi si erano rivelati nelle mani di Segre, Castelnuovo, Enriques e Severi, negli anni trenta avevano cominciato a essere sottoposti a un processo di revisione critica che aveva avuto in Bartel van der Waerden e Oscar Zariski i principali protagonisti. Nel 1950, nella sua relazione al Congresso internazionale dei matematici tenutasi a Cambridge (Mass.), Zariski affermò che l'opera di revisione dei fondamenti poteva « dirsi oggi compiuta nei suoi aspetti essenziali». Restava da costruire una « sovrastruttura » adeguata, abbandonando i metodi dei geometri italiani che « operavano su una base algebrica ristretta e insufficiente». Nel primissimo dopoguerra, alla luce delle moderne teorie dell'algebra astratta, e in particolare della teoria dei corpi, Weil aveva posto le basi della moderna geometria algebrica, introducendo nelle sue Foundatzons o/ Algebraic Geometry (1946) defmizioni completamente rigorose del concetto di varietà algebrica, di punto semplice e multiplo, di morfismo e di applicazione birazionale, e presentando con la teoria delle varietà abeliane la forma moderna in cui si traduce la classica teoria delle funzioni abeliane e delle serie teta di Jacobi e di Riemann. n8
www.scribd.com/Baruhk
Teoremi e congetture
Nel quadro teorico della geometria algebrica astratta, costruita su un corpo commutativo arbitrario, si collocano anche le ricerche di teoria dei numeri di Weil, in particolare la sua dimostrazione dell' « ipotesi di Riemann » nel caso di genere g qualunque, « direttamente ispirata » ai lavori di Castelnuovo e Severi. Per la dimostrazione era infatti essenziale considerare la geometria delle curve algebriche che corrispondono a un dato campo di funzioni. L'originaria ipotesi di Riemann afferma che tutti gli zeri della funzione ~(s) = ~n-S (n E N, s E C) nella striscia del piano complesso o < Res < r stanno sulla retta Res = rh. Questa congettura, formulata da Riemann per dimostrare il teorema dei numeri primi 1t(x) - xllogx (dove 1t(x) indica il numero di numeri primi minori di x) costituisce forse la più importante delle congetture ancora aperte in matematica. Nella sua tesi (r92r), Emil Artin ispirandosi alla teoria dei corpi quadradci, aveva sviluppato una teoria aritmetica delle estensioni quadratiche Q del corpo delle frazioni razionali a coefficienti in un campo finito FP (p primo) e aveva associato a Q una funzione ~per la quale aveva formulato l'analogo dell'ipotesi di Riemann. La teoria di Artin (e la sua congettura sulla funzione ~) fu poi generalizzata da Karl Schmidt alle estensioni finite di un corpo di funzioni razionali a coefficienti in un campo finito. L'ipotesi di Riemann per la funzione ~ di Schmidt di genere uno fu dimostrata da Helmut Hasse nel 1934 e nel 1948 da Weil nel caso di genere qualunque. Nel corso di queste ricerche Weil formulò le sue celebri congetture sulle funzioni ~ generalizzate, che hanno fornito uno degli stimoli principali per lo sviluppo della geometria algebrica astratta e sono state dimostrate nel 1973 da Pierre Deligne utilizzando strumenti teorici (le teorie coomologiche) elaborati da Alexandre Grothendieck. L'opera di Grothendieck ha fornito elementi di ispirazione a un'intera generazione di matematici e ha consentito, nel giro di un ventennio, non solo di nottenere in maniera rigorosa classici risultati della scuola italiana come la classificazione delle superfici per mano di Kunihiko Kodaira, Igor Shafarevic, David Mumford ed Enrico Bombieri (tra il 1955 e il 1975), ma anche di affrontare questioni inaccessibili ai metodi dei geometri italiani, come il teorema generale di scioglimento delle singolarità per varietà di dimensione qualunque, provato da Heisuke Hironaka nel 1964, e ancora di porre e risolvere problemi nuovi come il problema della classificazione delle varietà algebriche di dimensione 3 secondo un programma proposto e portato a compimento da Shigefumi Mori alla fine degli anni ottanta. Un'ulteriore estensione del concetto di varietà algebrica fu elaborata da Grothendieck alla fine degli anni cinquanta con la teoria degli schemi, costruita sulla base di strutture algebriche più generali e astratte (la teoria degli anelli commutativi). Le teorie di Grothendieck furono esposte nei volumi degli Elements de géometrie algébrique (1960-67) «una pietra miliare nello sviluppo della geometria algebrica», come scrisse Serge Lang al loro apparire. Negli anni quaranta e cinquanta, ricorda Lang, la topologia algebrica e la geoIl9
www.scribd.com/Baruhk
Teoremi e congetture
metria algebrica si svilupparono in maniera sistematica su nuovi fondamenti. Un fiume che ha inondato il campo della matematica. Questa è l'immagine cui è ricorso René Thom (Parabole e catastrofi, 1980) per dare un'idea dello straordinario sviluppo della topologia algebrica negli anni dell'immediato secondo dopoguerra. Un vero e proprio fiume di nozioni e concetti nuovi, come quello di spazio fibrato, originariamente introdotto da Herbert Seifert nel 1932 nel corso di ricerche sull'estensione dei risultati di Brouwer sulle classi di omotopia di applicazioni fra spazi ndimensionali, quello di fibrato principale, di coomologia, di operatori coomologici e di classi di coomologia che nelle mani di Charles Ehresmann, Hassler Whitney, Norman E. Steenrod, Henri Cartan, Jean-Pierre Serre e molti altri, hanno portato allo sviluppo di interi, nuovi campi della matematica. Originata a partire da problemi di topologia algebrica, l'algebra omologica, familiarmente chiamata da Steenrod « abstract nonsense », ben presto estese il suo dominio d'applicazione ad altri campi, compresa la geometria algebrica. Contemporaneamente si ebbe lo sviluppo dell'algebra commutativa motivato dalla geometria algebrica. Lo studio di una curva algebrica su un campo numerico, porta infatti a considerare equazioni i cui coefficienti variano nell'anello degli interi algebrici. In maniera analoga, lo studio di famiglie algebriche di curve su un campo arbitrario porta a considerare anelli di serie di potenze o più generalmente anelli locali completi per trattare singolarità e proprietà infinitesimali. D'altra parte, ricorda Lang, c'era la tendenza a «globalizzare dai moduli ai fasci, in un contesto che chiamava in causa l'algebra omologica e l'algebra commutativa e portava verso ulteriori astrazioni. Questi sviluppi preludevano alla unificazione dal punto di vista concettuale di topologia, geometria differenziale complessa e geometria algebrica che si ebbe negli anni sessanta, settanta e oltre. Perché tale unificazione avvenisse, era necessario sviluppare non solo un linguaggio ma una vera e propria teoria che contenesse risultati sostanziali». Negli anni cinquanta e sessanta, continua Lang, tutto ciò appariva una « senseless abstraction », un'astrazione senza senso agli occhi di numerosi matematici della generazione precedente. Lang ricorda la stroncatura del proprio volume Diophantine geometry (1962) da parte di Lewis Mordell e l'aperta opposizione alle nuove tendenze da parte del teorico dei numeri Carl Siegel, secondo il cui tali sviluppi avevano solo a che fare con «la teoria dell'insieme vuoto». « Ma furono proprio le intuizioni di Grothendieck che portarono a un' estensione, e insieme a un'astrazione, della geometria algebrica» - afferma Lang. Nel corso delle sue ricerche Grothendieck si servì poi degli strumenti della teoria delle categorie (concetto introdotto in un pionieristico lavoro di Samuel Eilenberg e Saunders MacLane del 1945) e della teoria dei fasci per introdurre tecniche e risultati di grande portata e generalità, esposti nella serie di Séminaires de géometrie algébrique apparsi tra il 1957 e il 1970, quando Grothendieck decise di abbandonare la ricerca matematica attiva. La nozione di fascio, introdotta nel 1950 da Jean Leray nel campo dell'analisi 120
www.scribd.com/Baruhk
Teoremi e congetture
complessa, si è rivelata fondamentale in tutta la geometria moderna. La stessa teoria delle funzioni di più variabili complesse, che come ricorda Reinhold Remmert in Complex analysis in « Sturm und Drang » (1995) fino ad allora era una «tranquilla teoria matematica», all'inizio degli anni cinquanta conobbe una vera e propria Rivoluzione Francese guidata dai bourbakisti al motto di «il faut faisceautiser » che si accompagnava all'uso pervasivo di una peculiare terminologia (fascio, fibra, germe e così via) presa a prestito dall'agronomia. Un analogo sviluppo si ebbe nel campo dell'analisi funzionale. All'inizio degli anni quaranta Bourbaki riformulò per gli spazi lineari topologici localmente convessi i teoremi fondamentali per operatori lineari in spazi di Banach, e basandosi su questi risultati nel 1945 Laurent Schwartz estese la nozione di funzione e delle sue derivate a quella di distribuzione. Le distribuzioni di Schwartz sono funzionali lineari continui definiti sullo spazio delle funzioni di classe Coo a supporto compatto. La loro teoria, che Schwartz pubblicò nella monografia Théorie des distributions (1950-51), abbracciava la generalizzazione di funzione e delle sue derivate già introdotta da Sobolev nel 1936, poneva su nuove basi la teoria delle equazioni differenziali e della trasformata di Fourier e consentiva di dare una veste rigorosa ai metodi formali usati da tempo in fisica per trattare oggetti come la funzione di Heaviside e la funzione di Dirac. Una naturale estensione della teoria delle distribuzioni fu data da Izrail M. Gel'fand e Georgii E. Shilov che considerarono diverse classi di funzioni generalizzate definite su opportuni spazi, prima che Mikio Sato, seguendo una via completamente diversa, nel 1958 introducesse un'ulteriore generalizzazione con il concetto di iperfunzione. L'influenza esercitata da Bourbaki sul linguaggio e il modo stesso di concepire la matematica e la sua storia è stata enorme. Come gli Elementi euclidei lo furono nel passato, gli Elements di Bourbaki sono diventati il modello di rigore della matematica contemporanea. Se si guarda ai volumi degli Elements che sono stati pubblicati, o al quadro delineato da Dieudonné nel volume Panorama des mathématiques pures: le choix bourbachique (1977), ci si rende conto della grandiosità ma anche dei limiti dell'impresa bourbakista, dell'impossibilità cioè di abbracciare e sistematizzare l'intero sviluppo della matematica moderna in un'unica opera, se pur collettiva come gli Elements. D'altra parte, se si vuole, come intendeva Bourbaki, individuare nella matematica un nucleo centrale, da cui far dipartire tutto il resto, «è necessario eliminare molte cose», ha riconosciuto esplicitamente lo stesso Dieudonné. Tuttavia, l'esclusione dal programma bourbakista di interi settori della matematica non esprimibili in termini di strutture, dalla teoria dei gruppi finiti alla teoria analitica dei numeri, alla cosiddetta hard analysis fino a tutta la matematica applicata, ha portato a una crescente indifferenza dei matematici per le sorti di quel programma, il cui spirito si trova affidato oggi ai volumi che raccolgono i Séminaires Bourbaki su argomenti di ricerca avanzata. 121
www.scribd.com/Baruhk
Teoremi e congetture
Più volte Bourbaki ha rivendicato come propri «padri spirituali» Hilbert, Poincaré ed Elie Cartan. Ma non si trova nelle sue pagine una traccia neppure lontana dell'enorme interesse per la fisica che ha motivato le ricerche dei «padri». Spesso è stato proprio fuori dal dominio della matematica bourbakista, nell'interazione con altre scienze, dalla fisica alla biologia alla computer science, che hanno trovano origine alcune delle più vitali teorie della matematica degli ultimi decenni, oltre a teorie come quella delle catastrofi o dei frattali che hanno attirato anche l'attenzione dei non specialisti. IV • STABILITA,
SINGOLARIT A
E
CATASTROFI
I primi lavori di Thom sulle varietà cobordanti si collocavano nel quadro della topologia differenziale, lo studio cioè delle proprietà delle varietà differenziabili che sono invarianti per diffeomorfismi, al cui sviluppo negli anni trenta avevano contribuito in particolare i risultati di Whitney, di John H. C. Whitehead e la teoria che Marston Morse aveva elaborato a partire da pionieristici lavori di Poincaré e George D. Birkhoff sui sistemi dinamici. Anche se i primi passi nella teoria della classificazione delle varietà differenziabili (la teoria del cobordismo) risalivano a Lev S. Pontrjagin e Vladimir A. Rokhlin, « si può datare lo slancio attuale della topologia differenziale dalla soluzione data da Thom (1954) a due problemi posti in precedenza da Steenrod: in una varietà differenziabile M quando una classe di omologia è "rappresentata" da una sottovarietà, e quando una varietà di dimensione n è il bordo di una varietà di dimensione n + l?» (Dieudonné, 1977). Dopo questi risultati sul cobordismo, che hanno portato all'introduzione di fondamentali concetti come i complessi e le algebre che portano il suo nome, Thom si dedicò alla teoria delle applicazioni differenziabili. Verso la metà degli anni cinquanta, con gli studi di Whitney, la teoria delle singolarità delle applicazioni differenziabili, che aveva le sue origini nelle lontane ricerche di Poincaré, Liapunov e Andronov sulla stabilità dei sistemi dinamici, divennne uno dei campi centrali della matematica. La nozione di « sistema strutturalmente stabile » era stata introdotta da Andronov e Pontrjagin in una nota del 1937, ripubblicata in appendice a un volume dello stesso Andronov e Chaikin, tradotto in inglese da Solomon Lefschetz con il titolo Theory o/ osczllations (1949). Un sistema è strutturalmente stabile, affermavano Andronov e Pontrjagin, quando una piccola variazione nell'equazione induce nella regione considerata un « piccolo » omeomorfismo che porta traiettorie in traiettorie, punti critici in punti critici e così via. Tali sistemi, osservò Lefschetz, potevano essere interpretati come campi di vettori su una varietà dello spazio delle fasi e trattati con le tecniche della topologia. Lefschetz ebbe un ruolo decisivo nella rinascita dell'interesse per i problemi della stabilità negli Stati Uniti. La raccolta degli Annals o/ mathematics di Prince122
www.scribd.com/Baruhk
Teoremi e congetture
ton offre un'immagine efficace degli interessi della scuola di Lefschetz negli anni del primo dopoguerra. In quella collana furono pubblicate la traduzione inglese della fondamentale memoria di Liapunov Probième générai de la stabiiité du mouvement (1907) e le Contributions to the theory o/ non-iinear osciiiations, distribuite in cinque volumi apparsi tra il 1950 e il 1960 che rivelavano il posto centrale assunto dal concetto di stabilità strutturale. All'inizio degli anni sessanta, sotto l'influenza di Lefschetz e della sua scuola (H. F. de Baggis, Lawrence Markus, Mauricio M. Peixoto e altri} Stephen Smale comincia a dedicarsi allo studio dei sistemi dinamici differenziabili, che affronta da un nuovo punto di vista, con gli strumenti della topologia differenziale, ottenendo una serie di risultati fondamentali che hanno posto le basi delle moderne teorie dei fenomeni caotici. Tracciando un bilancio dei più recenti sviluppi, nel 1971 Peixoto affermava che il punto di vista sviluppato con grande successo da Smale e dalla sua scuola « domina nettamente la teoria qualitativa delle equazioni differenziali». D'altra parte «la stessa idea di stabilità strutturale considerata dal punto di vista delle applicazioni di una varietà in un'altra - continuava Peixoto - ha condotto a uno sviluppo parallelo e in un certo senso più fecondo nelle mani di Whitney, Thom e Mather ». Come ha affermato Vladimir I. Arnold in Catastrophe Theory (1986), nella teoria delle singolarità di Whitney «le teorie più astratte (geometria e topologia algebrica e differenziale, teoria dei gruppi di riflessione, algebra commutativa, teoria degli spazi complessi, ecc.) si fondono insieme a quelle più applicative (stabilità dei moti dei sistemi dinamici, biforcazioni e stati di equilibrio, ottica geometrica e ondulatoria, ecc.) ». Nell'articolo Mappings o/ the piane into the piane (1955) Whitney mostrò che nello studio di tali mappe lisce (coppie di funzioni differenziabili un numero opportuno di volte) si incontrano solo due tipi di singolarità, le pieghe e le cuspidi, e che tali singolarità sono stabili nel senso che persistono anche dopo piccole deformazioni della mappa. « Whitney mostrò inoltre che ogni singolarità di una mappa liscia di una superficie su un piano sviluppa pieghe e cuspidi in seguito a una piccola deformazione appropriata. » Le prime idee sulla stabilità e il comportamento di mappe nell'intorno di punti critici risalivano alla fine del secolo scorso, ai lavori di Poincaré sullo studio qualitativo delle equazioni differenziali. Tuttavia, «i progressi nella realizzazione del programma di Poincaré per una teoria della biforcazione rimangono piuttosto modesti nella maggior parte dei settori dell'analisi; in parte a causa delle enormi difficoltà matematiche e in parte a causa dell'inerzia psicologica e del predominio di uno stile di ricerca assiomatico-algebrico », ha osservato Arnold, in esplicita polemica col punto di vista bourbakista. A partire dai pionieristici lavori di Whitney, nel corso degli anni sessanta la teoria delle singolarità delle applicazioni si sviluppa con la dimostrazione da parte di Bernard Malgrange del teorema di preparazione per funzioni Coo e i contributi di Arnold e della scuola di Mosca alla teoria generale delle singolarità delle fun123
www.scribd.com/Baruhk
Teoremi e congetture
zioni analitiche e delle sue «misteriose connessioni » (per usare un'espressione di Thom) con la classificazione dei gruppi di Lie. «La mia lista "biologica" delle sette catastrofi elementari trovò così collocazione in un contesto molto più ampio », ricorda Thom in Leaving mathematics /or philosophy (1992) alludendo alle sue ricerche sull' applicabilità della teoria delle singolarità all'embriologia, che culminarono col teorema di classificazione delle singolarità elementari (o «catastrofi», come le ha chiamate Christopher Zeeman con un termine che ha costituito un elemento non secondario del successo della teoria in ambienti estranei alla matematica). Il concetto di base della teoria è quello di modello di stati, cioè una famiglia di funzioni potenziali f u definite su un sottoinsieme X di Rn (detto spazio interno o spazio degli stati) contenente un intorno dell'origine, mentre i parametri u appartengono a un intorno U dell'origine dello spazio R' (spazio di controllo). Un modello di stati è un germe di funzioni f Rn x R' ---7 R (di classe c= nell'origine 0) che è il dispiegamento di un germe di funzioni 11 = f l Rn x {O}: Rn ---7 R che sono anch'esse c= nell'origine. Nello spazio vettoriale E(n + r) dei germi delle funzioni/ (dotato della topologia c= di Whitney) si può definire una nozione di equivalenza e di stabilità per piccole perturbazioni. Il teorema congetturato da Thom e dimostrato da John N. Mather nel 1966 afferma che, per r ::::; 4, l'insieme dei modelli stabili è un sottoinsieme aperto e denso di E(n + r) e che, a meno dell'addizione di una forma quadratica non degenere e della moltiplicazione per ± l, ogni modello di stati stabile è equivalente a uno dei modelli con certi potenziali standard che sono il dispiegamento universale di sette distinte singolarità, le « catastrofi elementari », che nel suo immaginifico linguaggio Thom ha denominato con nomi quali «coda di rondine», «ombelichi (parabolici, iperbolici, ellittici)» e « farfalle » in aggiunta alle classiche pieghe e cuspidi. In più occasioni Thom ha affermato esplicitamente che la teoria delle catastrofi non è una teoria scientifica nel senso usuale del termine, come la teoria di Newton o quella di Darwin, insistendo invece sugli aspetti qualitativi della teoria intesa come « una metodologia, se non una sorta di linguaggio, che permette di organizzare i dati dell'esperienza nelle condizioni più varie» (Parabole e catastrofi, 1980). Zeeman ha privilegiato invece gli aspetti quantitativi della teoria, saggiandone l' efficacia con applicazioni nelle scienze fisiche e sociali (compreso il problema della rivolta nelle carceri) che hanno innescato discussioni e polemiche nella comunità dei matematici (come avvenne al Congresso internazionale dei matematici a Vancouver, 1974), e hanno trovato eco sulla stampa. Per qualche tempo la teoria delle catastrofi fu presentata, nelle pagine culturali dei quotidiani, come un nuovo paradigma in grado di dare una risposta scientifica alle questioni più disparate. Guardando agli sviluppi e alle applicazioni della teoria, Thom scriveva nel 1974: « Sul piano filosofico e più propriamente metafisico la teoria delle catastrofi non può certamente fornire una risposta ai grandi problemi che tormentano l'umanità. Ma ispirerà una visione dell'universo dialettica ed eraclitea, di un mondo eterno tea124
www.scribd.com/Baruhk
Teoremi e congetture
tro della battaglia tra "logoi" e archetipi. È fondamentalmente una visione politeista alla quale essa ci conduce: bisogna imparare a riconoscere la mano degli dei in tutte le cose. Ed è forse proprio a questo che arriverà pur attraverso le limitazioni inevitabili dovute alla sua utilizzazione » (Catastrophe theory: its present state and future perspectives, 1974). «Fortunatamente, i bei risultati della teoria delle singolarità non dipendono dall'oscura mistica della teoria delle catastrofi», ha scritto Arnold commentando questo ispirato passo di Thom. Ancora più severo il giudizio di Smale, secondo cui la teoria di Thom «è più filosofia che matematica», anzi «cattiva filosofia che porta idee fondamentali della matematica su una strada arbitraria e forzata». La polemica sul ruolo e l'importanza della teoria delle catastrofi portò alla fine degli anni settanta a « una sorta di disaffezione » verso quella teoria da parte dei matematici, che si accompagnò allo sviluppo di nuove tecniche geometriche per lo studio delle singolarità e al crescente successo delle teorie del caos nei sistemi dinamici. La teoria delle catastrofi venne associata con un un tipo di dinamica molto particolare, la dinamica locale di funzioni potenziali. Molti problemi della teoria delle singolarità trovano oggi formulazione naturale nella geometria simplettica e delle varietà di contatto, che negli ultimi tempi hanno fatto la loro comparsa nelle branche più diverse della matematica. « La geometria simplettica è la geometria dello spazio delle fasi (lo spazio delle posizioni e dei momenti della meccanica classica) e rappresenta il risultato dello sviluppo della meccanica, del calcolo variazionale, ecc. Nel secolo scorso questa branca della geometria fu chiamata meccanica analitica» (Arnold, 1983). La geometria del contatto rappresenta l'analogo della geometria simplettica per l'ottica e la teoria della propagazione delle onde. Il concetto di singolarità si presenta praticamente in ogni campo della matematica, quando si ha a che fare con strutture non lisce. Lo studio delle singolarità fornisce allora informazioni sulla struttura globale, come avviene per esempio nella teoria di Morse. Ma una teoria completa delle singolarità in geometria è ancora di là da venire. Così come aperte sono molte questioni legate allo studio delle singolarità che si presentano per esempio nel calcolo delle variazioni e nella teoria delle equazioni differenziali. In particolare, mentre si sa trattare abbastanza bene il problema delle singolarità per varietà minime 2-dimensionali (superfici minime), anche se rimangono aperte profonde questioni legate alle superfici minime instabili, lontano dalla soluzione è il problema di gran lunga più complesso di comprendere la struttura dell'insieme delle singolarità per varietà minime di dimensione maggiore o uguale a tre. Problemi altrettanto difficili si incontrano nel trattare le singolarità delle equazioni differenziali non lineari di evoluzione, dove la questione di fondo è se si possano presentare singolarità quando le condizioni iniziali sono non singolari e asintoticamente «si comportano bene». Il problema, per esempio, di sapere se si possono presen125
www.scribd.com/Baruhk
Teoremi e congetture
tare o meno singolarità nell'equazione di Navier-Stokes è stato ed è ancora uno dei più celebri e studiati. Molti problemi analoghi sono ancora aperti in geometria. Altrettanto serio e difficile è un problema di singolarità che si presenta nella teoria della relatività generale. Oltre alla questione di studiare le singolarità quando sia lo spazio che il tempo sono finiti, ha osservato Yau, è importante comprendere anche la singolarità all'infinito perché «catturerà» la dinamica dello spazio-tempo: « D'altra parte c'è la celebre congettura di Penrose, chiamata la censura cosmica, che dice che le singolarità nel generico spazio-tempo non possono essere svelate. Una congettura importante dal punto di vista matematico e filosofico, molto profonda e molto lontana dall'essere risolta» (Yau, 1992). V
· SFERE ESOTICHE
Uno dei più sorprendenti risultati in topologia differenziale fu ottenuto da John W. Milnor negli anni cinquanta studiando varietà differenziabili lisce. La geometria differenziale classica insegna a trattare le proprietà locali di curve e superfici per mezzo del calcolo differenziale. Ma sulla base del comportamento locale, cosa si può dire globalmente? In generale, il problema si traduce nella questione di determinare le varietà lisce, che hanno una struttura differenziale, e insieme, il problema dell'unicità di una tale struttura per una data varietà. Servendosi di un risultato di Friedrich Hirzebruch, nel 1956 Milnor riuscì a dimostrare che esistono diverse strutture differenziali distinte sulla sfera ?-dimensionale. In altre parole, che esistono sfere esotiche, come furono chiamate le varietà differenziabili che sono omeomorfe ma non diffeomorfe alla 7-sfera. Il lavoro di Milnor ha aperto la via sia alla scoperta di molte altre varietà topologiche che posseggono diverse strutture differenziali distinte sia alla costruzione di varietà topologiche che non ammettono alcuna struttura differenziale. Si tratta in ogni caso di varietà di dimensione superiore. Infatti, le varietà di dimensione ::; 3 ammettono un'unica struttura differenziale. In altre parole, nell'ordinario spazio euclideo esiste un solo modo, quello standard, per specificare la struttura differenziale. Le varietà di dimensione 4 hanno una natura peculiare, le cui proprietà sono state rivelate da Michael H. Freedman in un fondamentale articolo del 1982, The topology o/ /our-dimensional mani/olds. Sulla base di un risultato di Andrew Casson del 1973, Freedman riuscì a stabilire numerose proprietà topologiche delle 4-varietà, come il fatto che se due tali varietà chiuse, lisce e semplicemente connesse sono h-cobordanti, allora sono omeomorfe. Da questo teorema conseguiva tra l'altro, come caso particolare, la dimostrazione della congettura di Poincaré per n = 4· Nel 1904 Poincaré aveva infatti ipotizzato che, in analogia con quanto avviene per la sfera dell'ordinario spazio tridimensionale, anche la sfera tridimensionale, la 3-sfera, fosse completamente caratterizzata dal punto di vista topologico dalla sua omologia e dalla sua omotopia, che egli descriveva mediante un certo «gruppo fon!26
www.scribd.com/Baruhk
Teoremi e congetture
damentale ». Un qualunque cammino chiuso sulla superficie della sfera ordinaria è contraibile con continuità in un punto, è omotopo a zero. Questa proprietà caratterizza la sfera nel senso che ogni altra varietà bidimensionale chiusa con tale proprietà è omeomorfa (ossia, topologicamente equivalente) alla sfera. Poincaré pensava che anche la 3-sfera fosse caratterizzata da tale proprietà. In altri termini, Poincaré congetturò che ogni varietà chiusa, semplicemente connessa, di dimensione 3, ornotopa a una 3-sfera, fosse omeomorfa a una 3-sfera. Questa congettura, generalizzata alle n-sfere (una varietà topologica n-dimensionale omotopa a una n-sfera è omeomorfa a una n-sfera) è stata dimostrata da Smale nel 1961 per n ~ 5· Dopo il lavoro di Smale e di Freedman, la congettura, ancora oggi indecisa per il caso n = 3 originariamente formulato da Poincaré, resta il problema che sfida i topologi. A partire dai risultati di Freedman e servendosi della teoria di gauge, Simon Donaldson mostrò che la classificazione dal punto di vista differenziale delle 4varietà lisce è molto diversa dalla loro classificazione topologica. Egli dapprima provò che esistono certe 4-varietà topologiche che non ammettono alcuna struttura differenziale, poi definì degli invarianti differenziali che gli permisero di distinguere su una stessa varietà strutture differenziali non diffeomorfe. Utilizzando il risultato di Freedman, Donaldson riuscì così a dimostrare (1983) che esistono varietà 4-dimensionali esotiche, che sono equivalenti dal punto di vista topologico ma non della struttura differenziale, allo spazio euclideo R4 • Sullo spazio euclideo 4-dimensionale R4 esiste una struttura differenziale esotica. Anzi, come poi mostrò Clifford Taubes, di tali strutture differenziali ne esistono infinite, mentre non si sa se esiste una 4-sfera esotica liscia. Donaldson ottenne il suo risultato sorprendente (n = 4 è il solo valore di n per cui si presenta tale anomalia) servendosi di strumenti della fisica teorica, come le equazioni di Yang-Mills e certe loro particolari soluzioni (nel caso euclideo) gli istantoni, che sono i minimi del funzionale di Yang-Mills e prima di Donaldson erano già stati studiati dai fisici e dai matematici. I profondi e insospettati legami rivelati da Donaldson fra la teoria delle equazioni di Yang-Mills e la topologia differenziale delle varietà 4-dimensionali hanno costituito il punto di partenza delle recenti ricerche di Edward Witten che si collocano in aree di frontiera tra la fisica e la geometria, dove la quantum /ield theory, la supersimmetria e la teoria delle stringhe si intersecano con la geometria algebrica, la topologia differenziale e la teoria dei nodi. VI
·
NODI
La teoria matematica dei nodi risale alla prima metà dell'Ottocento, agli studi di Gauss che stabilì una formula integrale per calcolare il numero di incroci di due nodi e a quelli di Listing che all'argomento dedicò una sezione dei suoi Vorstudien zur Topologie (1847). Più che ai matematici, la teoria dei nodi sembrò tuttavia interessare soprattutto a fisici come Clerk Maxwell, Lord Kelvin e Peter Guthrie Tait. 127
www.scribd.com/Baruhk
Teoremi e congetture
o a
c
b Fig. l. a) Non-nodo; b) nodo trifoglio; c) nodo trifoglio riflesso.
Quest'ultimo, assieme ai suoi collaboratori, basandosi su metodi empirici, nel tentativo di classificare i nodi riuscì a costruire delle tavole di tutti i nodi primari definiti da diagrammi con al più ro incroci. (Come i numeri, anche i nodi si scompongono infatti nel prodotto, opportunamente definito, di nodi « primari » e questa scomposizione è unica a meno dell'ordine.) Dal punto di vista matematico, la teoria si sviluppò solo nei primi decenni del Novecento, dopo che Max Dehn nel 1910 riuscì a dimostrare l'esistenza di un nodo non banale. I nodi (o meglio, i loro complementi nello spazio R_3 o, come si preferisce usualmente, nella 3-sfera S3 ) furono studiati con gli strumenti della topologia. Un nodo si può pensare infatti come l'immagine di una circonferenza orientata SI in 5 3 (due nodi sono equivalenti se c'è un omeomorfismo di 5 3 che porta l'uno nell'altro; il nodo banale, o non-nodo, unknot, è la circonferenza e i nodi equivalenti a essa, mentre una catena è l'unione disgiunta di nodi)_ Un risultato fondamentale, che consentì di applicare ai nodi la teoria dei gruppi, fu la scoperta che a ogni nodo si poteva associare un gruppo, che è un invariante del nodo. Nel 1928 James Alexander riuscì poi a determinare un invariante algebrico, il « polinomio » L1(t) oggi noto col suo nome, che consentiva di caratterizzare i diversi nodi delle tavole di Tait. Così, per esempio, i « polinomi di Alexander » per il non-nodo, il nodo a trifoglio e il nodo a trifoglio riflesso (vedi fig. 1) sono, rispettivamente, L1(t) = l e L1(t) = t- I - l + t (il polinomio è simmetrico nel senso che L1(t) = ,1(!-I), ed è quindi invariante quando da un nodo si passa alla sua immagine riflessa, cioè si inverte l'orientamento di 5 3 )_ Nel 1934 Seifert diede una risposta positiva a due domande che si presentano in maniera naturale: esiste un nodo che non è il nodo banale (o un nodo equivalente a esso) ma il cui polinomio di Alexander è il polinomio banale L1(t) = l? E ancora, dato un qualunque polinomio P(t), esso è il polinomio di Alexander di un qualche nodo? (La risposta è positiva a condizione che P(t) = P(t-I) e P(l) = 1). 128
www.scribd.com/Baruhk
Teoremi e congetture
3 2 1
ex:
3 2 1
a
b Fig. 2. a) Treccia; b) nodo associato alla treccia.
Lo stesso Alexander aveva dimostrato in un lavoro del 1923 che ogni nodo (o catena) può essere rappresentato da una treccia chiusa (vedi fig. 2). Anche per le trecce si può definire in maniera opportuna una struttura di gruppo e per questa via nel 1984 fu scoperto da Vaughan Jones un nuovo invariante dei nodi, il polinomio ](t). È interessante osservare che Jones stava lavorando a una questione molto lontana dalla teoria dei nodi, a un problema di analisi in dimensione infinita, un problema relativo a un'algebra di von Neumann, cioè un'algebra di operatori limitati su uno spazio di Hilbert che si può considerare come la naturale estensione dell'algebra delle matrici in uno spazio a dimensione finita. Una tale algebra si chiama un fattore se il suo centro consiste solo di multipli scalari dell'identità. Francis Murray e John von Neumann avevano individuato nel 1943 due esempi non isomorfi di fattori di tipo III' fattori cioè che ammettono un certo funzionale lineare, la traccia, che soddisfa opportune proprietà. Il loro risultato aveva aperto 129
www.scribd.com/Baruhk
Teoremi e congetture
la via al problema della classificazione dei fattori. L'obiettivo di Jones era di ottenere un teorema di classificazione dei sottofattori di un fattore dato. Nel corso della sua dimostrazione si imbatté nel gruppo delle trecce e, discutendo delle sue ricerche con Joan Birman, una studiosa di teoria dei nodi, Jones si accorse che la traccia che aveva costruito sull'algebra del gruppo delle trecce forniva un nuovo invariante della teoria dei nodi più potente del polinomio di Alexander. Infatti, il polinomio di ]ones J(t) consente di distinguere un nodo dalla sua immagine riflessa allo specchio, come per esempio il nodo a trifoglio e il nodo riflesso, che sono indistinguibili col polinomio di Alexander. Molte questioni, decise per il polinomio di Alexander, come quelle risolte da Seifert, sono ancora aperte per J(t). Il risultato di Jones ha segnato tuttavia un rinnovato interesse per la teoria dei nodi e la teoria delle trecce. Seguendo un metodo suggerito da Arnold e applicato alla teoria dei nodi da V. A. Vassiliev a partire dal 1989, si è cominciato poi a studiare la topologia non di un singolo nodo, ma dello spazio di tutti i nodi, definito in maniera opportuna. Questo metodo ha portato alla scoperta di una quantità di nuovi invarianti, che hanno rivelato profondi e insospettati legami di questa teoria con numerosi campi della matematica e della fisica. VII
·
GRUPPI
FINITI
SEMPLICI
Fino a tempi recenti, la teoria dei nodi e delle trecce si è sviluppata ai margini della ricerca matematica. « Dove si opera in modo artigianale, Bourbaki non interviene» ha detto una volta Dieudonné. « Bourbaki presenta solo teorie che sono razionalmente organizzate, i cui metodi seguono con naturalezza dalle premesse. » Come quella dei nodi, anche la teoria dei gruppi finiti semplici, non appartiene al « cuore » delle matematiche nell'organizzazione bourbakista. In questo campo è stato ottenuto, in tempi recenti, un risultato che può essere annoverato tra quelli che hanno caratterizzato la matematica del nostro secolo, se non addirittura, come ha scritto Daniel Gorenstein (Finite simple groups, 1983), «uno dei più importanti risultati dell'intera storia della matematica». La classificazione dei gruppi finiti semplici è stata completata all'inizio del 1981, con la dimostrazione da parte di Simon Norton dell'unicità del gruppo semplice sporadico F 1 (il «mostro») di Bernd Fischer e Robert Griess. Quest'ultimo aveva costruito in precedenza il gruppo F1 in termini di matrici di ordine 196.883 a termini complessi e Thompson aveva provato che esiste al più un gruppo semplice di tipo F1 rappresentabile con matrici siffatte. Norton aveva poi dimostrato che ogni gruppo di tipo F1 poteva essere rappresentato da tali matrici. Il risultato di Norton concludeva quella che Gorenstein ha chiamato la «guerra dei Trent'Anni» per la classificazione dei gruppi finiti semplici, le cui battaglie principali si sono svolte tra il 1950 e il 1980, anche se le prime idee sulla classificazione risalivano alla fine dell'Ottocento. In questa guerra si sono impegnati centinaia di
www.scribd.com/Baruhk
Teoremi e congetture
matematici, e la dimostrazione completa, distribuita in circa 500 articoli, occupa quasi 15.ooo pagine a stampa. Più che a un usuale teorema, la classificazione dei gruppi finiti semplici assomiglia dunque a un intero campo della matematica che è rimasto quasi inaccesibile agli stessi matematici che non sono esperti di gruppi finiti e hanno difficoltà a formarsi un'immagine complessiva della dimostrazione in tutti i suoi aspetti. I gruppi finiti semplici sono quelli che non possono essere scomposti in gruppi «più piccoli » e nella teoria dei gruppi finiti hanno un ruolo analogo ai numeri primi nella teoria dei numeri. Come ogni numero naturale può essere ridotto in fattori primi, ogni gruppo finito può essere scomposto in gruppi semplici. Ebbene, il teorema di classificazione stabilisce che, a meno di isomorfismi, tutti e soli i gruppi finiti semplici sono quelli appartenenti a certe famiglie infinite di gruppi (i gruppi ciclici di ordine primo, che sono i soli gruppi finiti semplici commutativi, i gruppi alterni A n (n ~ 5) ossia i gruppi delle permutazioni pari di un insieme di n elementi con n~ 5, il gruppo proiettivo speciale lineare PSL(n, q) delle matrici quadrate di ordine n su un campo finito di q elementi e altri gruppi lineari classici, e infine l'analogo nel caso finito di certi gruppi di Lie) oltre a ventisei gruppi cosiddetti sporadici, che non rientrano in nessuna famiglia particolare. I primi cinque gruppi sporadici furono trovati da Emile Mathieu verso il 186o. Solo cent'anni più tardi, nel 1965, Zvonimir Janko trovò un nuovo gruppo sporadico. La ricerca di nuovi gruppi semplici è stata paragonata da Gorenstein alla ricerca di particelle elementari, dove «si deve scrutare un ampio orizzonte con l'aiuto dell'intuizione e della conoscenza teorica, nella speranza di individuare una nuova particella ». C'è un altro aspetto, ha aggiunto Gorenstein, che rende particolarmente adeguata l'analogia con la teoria delle particelle elementari. « In molti casi (in primo luogo ma non esclusivamente quelli in cui si sono alla fine resi necessari calcoli al computer) la "scoperta" non comprendeva la costruzione effettiva di un gruppo tutto quello che si riusciva a provare era una forte evidenza in favore dell'esistenza di un gruppo semplice G soddisfacente un qualche insieme specificato di condizioni X. Il principio operativo metamatematico è questo: se la ricerca di un gruppo arbitrario G avente la proprietà X non porta a una contraddizione ma piuttosto a una struttura interna "compatibile" di sottogruppo, allora esiste un effettivo gruppo con la proprietà X. In ogni caso il principio è stato confermato: tuttavia l'intervallo tra la scoperta e la costruzione è variato da pochi mesi a diversi anni. » Come è accaduto con la teoria delle particelle elementari, ha osservato Ronald Solomon riprendendo l'analogia suggerita da Gorenstein, «i gruppi semplici sporadici sono stati spesso previsti diversi anni prima che la loro esistenza venisse effettivamente confermata». L'esistenza dell'ultimo di essi, Fl' fu prevista nel 1973 ma il gruppo fu costruito solo nel 1980. Viene chiamato «il mostro» perché è un gruppo con un numero enorme di elementi, dell'ordine di w 54 • La strategia che portò al successo in questa « guerra dei Trent'Anni » fu de131 www.scribd.com/Baruhk
Teoremi e congetture
lineata nel 1954 da Richard Brauer al Congresso internazionale dei matematici che si tenne ad Amsterdam. Dalla fine degli anni quaranta, nelle sue pionieristiche ricerche sui gruppi semplici Brauer aveva colto la fondamentale relazione tra la struttura di un gruppo G e i centralizzatori delle involuzioni (cioè degli elementi di ordine due) di G. Egli aveva per esempio dimostrato che se il centralizzatore Cc(z) = {g E G : gz = zg) di un'involuzione z in un gruppo finito semplice G è isomorfo al gruppo generale lineare GL(2, q) delle matrici quadrate di ordine 2 su un campo finito di q elementi (q numero primo) allora G è isomorfo o al gruppo proiettivo speciale lineare tridimensionale PSL(3, q) oppure anche q è uguale a 3 e G è isomorfo al più piccolo gruppo sporadico di Mathieu. Presentando ad Amsterdam questo risultato, Brauer indicò anche la strategia che risultò vincente per classificare i gruppi semplici sulla base della struttura dei centralizzatori delle involuzioni. L'idea era di scegliere in un gruppo finito semplice non abeliano un'involuzione z, di considerare il suo centralizzatore Cc(z) e di mostrare poi che i tipi di isomorfismi di CG(z) determinano i tipi di isomorfismi di G. Negli anni cinquanta, al lavoro di Brauer sui gruppi semplici si accompagnarono i contributi di Claude Chevalley, J acques Tits, Robert Steinberg, Mitsuo Suzuki e Rimhak Ree che fornirono una descrizione sistematica dei gruppi di tipo Lie. Tuttavia, ricordava Gorestein, « il singolo risultato che, più di ogni altro aprì il campo e lasciò intravedere l'ampiezza della dimostrazione della classificazione completa fu il celebre teorema di Walter Feit e John Thompson del 1962, che stabiliva che ogni gruppo finito di ordine dispari è risolubile ». Un risultato che si può enunciare in una riga, osserva Gorenstein, ma la cui dimostrazione richiese un intero fascicolo di 255 pagine del « Pacific Journal of Mathematics ». Il teorema di Feit e Thompson segnò l'inizio di un crescente interesse per questo campo di ricerche, che alla fine degli anni sessanta attrasse giovani matematici soprattutto negli Stati Uniti, in Inghilterra, Germania e Giappone. Nel 1972 Gorenstein lanciò un «programma» in 16 punti per il completamento della dimostrazione, che rappresentò una fonte di ispirazione e di problemi per i giovani ricercatori che scelsero di impegnarsi in una guerra che, ricorda Solomon, nessuno tra i maggiori teorici dei gruppi in campo internazionale, escluso Gorenstein, pensava di poter vincere entro questo secolo. Al successo del «programma » contribuirono in maniera essenziale i numerosi e sorprendenti risultati ottenuti da Michael Aschbacher nel giro di pochi anni. Una caratteristica comune ai lavori sull'argomento è la loro straordinaria lunghezza, del tutto inusuale per articoli di matematica. Per esempio, la classificazione di Thompson dei gruppi semplici minimi (cioè i gruppi semplici in cui tutti i sottogruppi propri sono risolubili) occupa oltre quattrocento pagine ed è distribuita in sei parti apparse tra il 1968 e il 1974; un articolo di Gorenstein e Harada riempie oltre 460 pagine delle Memoires o/ the American Mathematical Society (1971). Circa tremila pagine di lavori dattiloscritti circolarono poi fra gli specialisti tra il 1976 e 132
www.scribd.com/Baruhk
Teoremi e congetture
il 1980, a volte senza neppure essere mai pubblicati, come avvenne per un lavoro di 8oo pagine di Mason nel quale, nel 1989, si scoprì una lacuna che Aschbacher riuscì a colmare tre anni più tardi in un manoscritto che, come quello di Mason, aspetta di essere rivisto prima della pubblicazione. Per la sua natura, la dimostrazione del teorema di classificazione dei gruppi semplici è difficilmente verificabile da un solo matematico. E d'altra parte, si sa che molti degli articoli sui gruppi semplici contengono errori «locali». Come ha osservato Gorenstein (Finite simple groups, 1983), «il fatto che sembra al di là delle capacità umane presentare un ragionamento serrato per centinaia di pagine con un'accuratezza assoluta, può fornirne la spiegazione, ma questa spiegazione non elimina il dubbio sulla validità della dimostrazione». Certo, è possibile che molti errori una volta scoperti, possano essere eliminati sul posto. Ma siccome molti degli argomenti sono ad hoc, « come si può essere certi che il « setaccio » non abbia lasciato passare una configurazione che porta a un altro gruppo semplice?» Nonostante il fatto che negli ultimi quindici anni, molti ricercatori abbiano lavorato alla dimostrazione partendo da diversi punti di vista, «la probabilità di errore nella dimostrazione del teorema della classificazione è virtualmente pari a uno », ha detto Aschbacher. « D'altro lato la probabilità che qualsiasi singolo errore possa essere facilmente corretto è virtualmente pari a zero, e poiché la dimostrazione è finita, la probabilità che il teorema sia sbagliato è prossima a zero. » Tuttavia, la necessità di eliminare possibili errori « locali » e di dare al teorema di classificazione un assetto più coerente e convincente ha spinto Gorenstein a intraprendere un progetto di revisione al quale si sono associati Solomon e Richard Lyons, alla ricerca di una dimostrazione nuova e completa, che uniformi anche nel linguaggio risultati ottenuti più di trent'anni fa. Si tratta di un lavoro lungo e complesso che si prevede pubblicato dall' American Mathematical Society in una serie di una ventina di volumi. Le ricerche più recenti sui gruppi finiti si sono sviluppate in connessione con problemi sorti in altri domini della matematica e le tecniche elaborate per il completamento della dimostrazione del teorema di classificazione si sono rivelate importanti in campi come la teoria dei numeri e la teoria dei modelli, la teoria degli algoritmi, la teoria dei grafi e le geometrie finite. Numerose sono ancora le questioni rimaste senza risposta, in particolare quelle legate alla natura profonda del « mostro », che sembra connessa (in maniera sorprendente e misteriosa) con la teoria delle funzioni modulari e la quantum fie/d theory. L'era della post-classificazione sembra dunque annunciarsi altrettanto ricca di scoperte del recente passato. VIII
· OGGETTI
FRATTALI
E
CAOS
Come è accaduto nella costruzione di gruppi semplici sporadici, negli ultimi tempi è diventato sempre più frequente in matematica affidarsi al computer per realizzare modelli numerici e visivi coi quali saggiare congetture e teoremi. Proprio la 133
www.scribd.com/Baruhk
Teoremi e congetture
Fig. 3. Immagine dell'insieme di Mandelbrot.
realizzazione di macchine sempre più potenti e veloci ha permesso a Benoit Mandelbrot di dar vita ai suoi «oggetti frattali» traducendo in immagini idee ed equazioni che si erano affacciate in matematica all'inizio del secolo, se non addirittura nell'Ottocento, come l'equazione introdotta nel 1845 da Verhulst nei suoi modelli di crescita delle popolazioni. Se il tasso di crescita r è costante, la legge di crescita è lineare x n+ 1 = (l + r) x n e l'incremento della popolazione è esponenziale. Dopo n anni la popolazione x n sarà (l + r)n volte la popolazione iniziale. Ipotizzando, come fece Verhulst, un tasso di crescita variabile, proporzionale a l - x n , il cui valore diminuisce quando la consistenza numerica della popolazione si avvicina al valore X degli individui che possono soppravvivere in un dato ambiente, il processo di crescita diventa non lineare x n+ 1 = (l
+ r)x n - rx n2
134
www.scribd.com/Baruhk
Teoremi e congetture
e, per valori di r > 2 la dinamica che si ottiene rivela un comportamento del tutto inaspettato e caotico. Il primo a richiamare l'attenzione su questo fenomeno fu il metereologo Edward N. Lorenz, che nel 1963 osservò che per tali valori la legge di Verhulst consente di descrivere fenomeni di turbolenza. Quando, all'inizio degli anni settanta, Mandelbrot cominciò a interessarsi alla legge di Verhulst, ebbe l'idea di considerare valori complessi per l'analoga formula ricorsiva
x n+l =xn 2 +c. Quando per esempio il valore di c varia nel dominio -2,25 < Ree < 0,75
e
- 1,5
< Ime <
1,5
l'iterazione genera nel piano complesso una figura «frattale» nota come «insieme di Mandelbrot » (vedi fig. 3). Secondo la definizione data da Mandelbrot, un insieme è « frattale » se la sua dimensione di Hausdorff non è intera. Affascinanti creazioni matematiche, i « frattali », dice Mandelbrot, sono figure « di forma estremamente irregolare, o estremamente interrotta e frammentaria, e che rimane tale qualunque sia la scala con cui le si esamina». È quest'ultima la proprietà dell' autosomiglianza, che le caratterizza. Figure di questo tipo erano note da tempo in matematica. Negli anni del primo dopoguerra Gaston Julia e Pierre Fatou ne avevano studiato le proprietà (compresa l'autosomiglianza) nel caso (più generale) dell'iterazione delle applicazioni razionali del piano complesso in sé. I loro risultati dovevano essere pienamente apprezzati dai matematici (e, sul piano estetico, da un pubblico molto più vasto) solo attraverso le immagini della moderna computer graphics. Come hanno dimostrato Adrien Douady e John Hubbard nel 1983, l'insieme M di Mandelbrot è un insieme connesso (non si sa ancora, tuttavia, se sia anche localmente connesso) mentre gli insiemi di Julia si rivelano molto diversi a seconda del valore del parametro c. Se c varia nell'insieme M, i corrispondenti insiemi di Julia sono connessi. In caso contrario, sono insiemi formati da infinite parti sconnesse. Con la geometria dei « frattali », quello che era stato il «museo degli orrori » della matematica ottocentesca, popolato di «mostri » come gli insiemi di Cantar, come le curve continue senza tangente in nessun punto o le curve continue che, come quella di Peano, riempiono un quadrato, diventa agli occhi di Mandelbrot il « Palais de la découverte », che esibisce le scoperte di una nuova «geometria della natura » in grado di descrivere i fenomeni caotici più diversi, dalle traiettorie del moto browniano alla distribuzione della materia e degli ammassi stellari nell'Universo. Senza essere a conoscenza dei lavori di Lorenz sulla turbolenza, ma ispirandosi ai risultati di Smale sui sistemi dinamici differenziabili, David Ruelle e Floris Takens pubblicarono nel 1971 un fondamentale articolo On the nature o/ turbolence, in cui 135
www.scribd.com/Baruhk
Teoremi e congetture
rivelavano il ruolo degli «attrattori strani» nei fenomeni di turbolenza. Un attrattore, nella definizione intuitiva data da Ruelle (Hasard et chaos, 1991) «è l'insieme su cui si muove un punto P che rappresenta lo stato di un sistema dinamico deterministico quando si attenda abbastanza a lungo (l'attrattore descrive la situazione di regime, dopo la sparizione dei fenomeni transitori)». Gli attrattori « strani » non sono curve o superfici lisce ma oggetti « frattali », hanno dimensione di Hausdorff non intera. «Inoltre, ed è la cosa più importante, - continua Ruelle - il moto su un attrattore strano presenta il fenomeno della "dipendenza sensibile dalle condizioni iniziali".» È questo il comportamento tipico di moti instabili, un fenomeno già noto a Poincaré: « può accadere - egli aveva scritto - che delle piccole differenze nelle condizioni iniziali diano luogo a differenze molto grandi nei fenomeni finali: la predizione diventa impossibile e abbiamo il fenomeno fortuito». Tali comportamenti caotici e imprevedibili possono presentarsi anche in sistemi deterministici. A essi si pensa infatti quando si parla di « effetto farfalla» o di «caos deterministico», un argomento che negli ultimi anni ha attirato un numero crescente di ricercatori in matematica e nelle scienze della natura. IX · IL
TEOREMA
DEI
QUATTRO
COLORI
Se la geometria dei frattali è forse il più spettacolare successo della computer graphics, l'utilizzo dei calcolatori in matematica non si limita alla creazione di immagini suggestive ma sembra investire il concetto stesso di dimostrazione. In questo senso, nel 1976 fece scalpore la dimostrazione, basata sull'uso decisivo del computer, di una congettura formulata verso la metà dell'Ottocento, che cioè quattro colori fossero necessari e sufficienti per colorare una qualsiasi carta geografica piana, in modo che due regioni confinanti non abbiano lo stesso colore. Francis Guthrie, il giovane matematico londinese che nel 1852 formulò la congettura, non ebbe difficoltà a dimostrare che quattro colori sono necessari. Che fossero anche sufficienti era cosa che andava oltre le capacità sue e quelle di matematici come Augustus de Morgan e William Hamilton, ai quali fu sottoposto il problema. La questione divenne di dominio pubblico nel 1878, quando Arthur Cayley invitò i matematici della London Mathematical Society a trovarne la soluzione. L'originaria congettura di Guthrie si trasforma in una congettura di teoria dei grafi considerando il grafo duale, ottenuto prendendo un punto (nodo) all'interno di ogni regione della carta e congiungendo a due a due con un segmento i nodi di regioni che condividono un confine. La condizione è di colorare i nodi del grafo in modo tale che ciascuna coppia di nodi connessi da un segmento abbia colori differenti. L'anno seguente, l'avvocato Alfred Kempe pubblicò un articolo in cui sosteneva di essere riuscito nell'impresa. Il suo lavoro conteneva tuttavia un errore, rilevato undici anni dopo da John Heawood ma, al tempo stesso, anche le idee essenziali che permisero allo stesso Heawood di provare che cinque colori sono sempre sufficienti e,
www.scribd.com/Baruhk
Teoremi e congetture
quasi cent'anni dopo, a Kenneth Appel e Wolfgang Haken di dimostrare la congettura originaria. L'ingegnoso metodo elaborato da Kempe consentiva infatti di ridurre una carta data in una più semplice, con un minor numero di paesi, senza ridurre il numero di colori necessari, ossia di ridurre il numero delle configurazioni possibili del grafo duale della carta. Nel 1950 Heinrich Heesch stimò che per risolvere il problema si sarebbero dovute esaminare circa w.ooo configurazioni distinte, cosa possibile solo con l'aiuto del calcolatore. Generalizzando il metodo di Kempe, lo stesso Heesch mise a punto negli anni sessanta una serie di tecniche di riducibilità delle configurazioni, che avrebbero consentito procedimenti meccanici di verifica della congettura da parte di un computer. Per dimostrare il « teorema dei quattro colori » Appel e Haken affidarono a un calcolatore la verifica dell'enorme numero di configurazioni che si presentavano e furono necessarie circa 1200 ore di tempo-macchina per venirne a capo. Si trattava della prima dimostrazione che non poteva essere direttamente verificata con un procedimento manuale. Come scrivevano in un articolo del 1986, il lettore del loro lavoro originale avrebbe dovuto affrontare « 50 pagine di testi e diagrammi, 85 pagine piene di quasi 2500 ulteriori diagrammi e 400 pagine in microfiches che contengono ancora diagrammi e migliaia di singole verifiche di affermazioni fatte nei 24 lemmi della sezione principale del testo». Essi ammettevano inoltre che c'erano stati errori tipografici che tuttavia «non minavano la solidità della dimostrazione». Nel 1981, circa il 40% delle 400 pagine è stato controllato in maniera indipendente e sono stati scovati e corretti 15 nuovi errori. Qualche anno più tardi è stato trovato un altro errore che «ha richiesto un piccolo cambiamento in un diagramma e nella corrispondente lista di controllo». Che cosa bisogna concludere di fronte a questa continua attività di correzione degli errori, che gli autori considerano una specie di « routine del tutto ragionevole»? Si può pensare che il teorema è stato dimostrato come lo sono per esempio il teorema dei numeri primi o il teorema di Fermat? X
·
«UNO
SPLENDIDO
ANACRONISMO»?
Un risultato clamoroso in teoria dei numeri si ebbe nel giugno del 1993 quando, in un'affollata conferenza al Newton Institute di Cambridge, Andrew Wiles annunciò di aver ottenuto la dimostrazione di una delle più celebri congetture ancora aperte in matematica, «l'ultimo teorema di Fermat». Il teorema afferma che l'equazione ;x'1 + yn = zn
non ha soluzioni intere per n > 2. In questi termini si traduce infatti la celebre annotazione, fatta dal giudice tolosano Pierre de Fermat (1601-65) in margine di una pagina dell'Aritmetica di Diofanto: «È impossibile dividere un cubo in due cubi, o 137
www.scribd.com/Baruhk
Teoremi e congetture
un biquadrato in due biquadrati, o, in generale, ogni altra potenza maggiore della seconda in due potenze dello stesso grado; della qual cosa ho scoperto una dimostrazione veramente mirabile, che non può essere contenuta nella ristrettezza del margine». Per oltre tre secoli i matematici si sono affaticati alla ricerca della dimostrazione dell'affermazione di Fermat, riuscendo nello scopo in moltissimi casi particolari. Non si perde di generalità se si assume che n sia un numero primo e, prima della dimostrazione di Wiles, la congettura di Fermat era stata verificata per numeri primi n fino a 4 milioni. Un passo importante verso la dimostrazione del teorema fu compiuto nel 1983 da Gerd Faltings, ottenuto come corollario della sua dimostrazione della verità di una congettura formulata nel 1922 da Lewis Mordell, che a parere di Serge Lang, ha rappresentato «uno dei principali problemi matematici del secolo». La congettura di Mordell afferma che ogni polinomio irriducibile in due variabili e a coefficienti razionali, di genere maggiore o uguale a due possiede al più un numero finito di radici razionali. Tradotta in termini geometrici, la congettura afferma che una curva di genere almeno due sul campo dei numeri razionali ha solo un numero finito di punti razionali. L'analogo di questa congettura per campi di funzioni, che una famiglia algebrica di tali curve possiede solo un numero finito di sezioni a meno che la famiglia sia costante (in un senso opportuno), fu formulato da Lang nel 1960 e dimostrato qualche tempo dopo da Yurii Manin e Hans Grauert. Correlati all'originaria congettura di Mordell sono inoltre numerosi risultati di analisi diofantea e teoria dei numeri ottenuti da Cari Siegel. Con una semplice trasformazione l'equazione x" + yn = zn si riduce alla forma xn + Y" = l che, per n > 2 soddisfa le ipotesi di Mordell. E, come ha dimostrato Faltings, ha dunque al più un numero finito .di soluzioni razionali. Una soluzione intera dell'equazione di Fermat genera una soluzione razionale dell'equazione di Mordell e inoltre soluzioni primitive diverse della prima danno luogo a soluzioni razionali diverse della seconda. Dunque, la verità della congettura di Mordell ha come conseguenza l'esistenza al più di un numero finito di soluzioni intere primitive dell'equazione di Fermat. Nel 1986, Ken Ribet aveva dimostrato che il teorema di Fermat è vero se è verificata per certe curve algebriche di genere superiore (curve ellittiche) la congettura di Taniyama-Shimura (o di Taniyama-Weil, come è anche chiamata). Yutaka Taniyama enunciò nel 1955 una serie di questioni aperte che possono essere considerate una forma più debole della congettura formulata nei primi anni sessanta da Goro Shimura nei seguenti termini: «ogni curva ellittica su Q (campo dei razionali) è modulare». Definita in maniera opportuna la nozione di « modularità », l'idea chiave è che le curve ellittiche che provengono da controesempi del teorema di Fermat - come la curva ellittica (di Frey) y2 = x(x - an)(x - é') associata a una soluzione dell'equazione di Fermat an + bn = é' (a, b, c primi tra loro, n ~ 3) - non possono essere modulari. Questo è quanto Ribet ha dimostrato seguendo idee di J.-P. Serre. Quindi, una dimostrazione della congettura di Taniyama-Shimura («o
www.scribd.com/Baruhk
Teoremi e congetture
abbastanza di essa da sapere che le curve ellittiche che provengono dall'equazione di Fermat sono modulari », come hanno osservato Rubin e Silverberg in: A report on Wiles' Cambridge lectures, 1994) implica una dimostrazione dell'« ultimo teorema di Fermat». Questa dimostrazione è il risultato che Wiles ha annunciato di aver ottenuto nelle conferenze di Cambridge. Al momento della preparazione del manoscritto per la pubblicazione, nel dicembre 1993, Wiles si era tuttavia accorto di una lacuna nella sua dimostrazione, che per qualche tempo ha fatto temere del successo. Ma l'anno seguente lo stesso Wiles (con l'aiuto di R. Taylor) è riuscito ad aggirare l'ostacolo e la dimostrazione è stata completata in tutte le sue parti. Anche se la dimostrazione, pubblicata nel 1995, non è quella originariamente annunciata da Wiles a Cambridge, ne condivide tuttavia la strategia di fondo. La dimostrazione di Wiles, che si basa su raffinate tecniche di geometria algebrica, è forse «uno splendido anacronismo», come si è chiesto J. Horgan alludendo al fatto che in essa non si fa ricorso al computer? Certo, la presenza dei computer sta radicalmente influenzando la natura stessa della matematica, ivi compresa quella della dimostrazione. Si fa strada l'idea che la validità di certe proposizioni possa essere stabilita da esperimenti condotti al computer, piuttosto che da sequenze di formule. «Entro i prossimi cinquant'anni penso che l'importanza della dimostrazione diminuirà. Vedremo molte più persone far matematica senza dare necessariamente delle dimostrazioni », ha affermato Keith Devlin intervenendo nella discussione proposta da Horgan su « Scientific American » sotto il titolo Morte della dimostrazione. In quello stesso articolo Horgan ricordava le ricerche al computer di Jean Taylor e di David Hoffman sulle superfici minime. Hoffman e i suoi collaboratori hanno congetturato l'esistenza di una nuova classe di superfici minime elicoidali, che sono riusciti a rappresentare al computer, prima di esibire una dimostrazione formale della loro esistenza. Un altro esempio è la scoperta di «alberi» in certi insiemi di J ulia: una scoperta fatta da Douady e Hubbard guardando disegni al computer, prima di essere dimostrata in maniera formale. È quest'ultimo tuttavia il fatto essenziale. Come ha affermato Steven Krantz, chiamato in causa in quella discussione, « anch'io ho usato della computer algebra per fare dei calcoli che erano diventati troppo complicati per farli a mano». La computer graphics può sicuramente aiutare a "vedere" qualcosa che non si riesce a vedere con la mente o con un disegno. Ma certo «fare un disegno di un dominio semplicemente connesso nel piano non è lo stesso che provare il teorema di rappresentazione di Riemann, anche se è un computer che fa il disegno». D'altra parte, bisogna forse dare l'idea che la matematica è una specie di magia che ci viene dal cielo per opera di uomini straordinari, nascondendo invece il fatto che è il risultato di un duro lavoro e dell'intuizione suggerita dall'analisi di molti esempi? si sono chiesti David Epstein e Silvio Levy, gli editors della rivista « Experimental mathematics », fondata nel 1991 nell'intento di «presentare la matematica 139
www.scribd.com/Baruhk
Teoremi e congetture
come un'entità viva, con esempi, congetture, teorie che interagiscono tra loro». Il ruolo del computer nel suggerire congetture e arricchire la nostra comprensione di concetti astratti con esempi e visualizzazioni è stato un salutare sviluppo, essi affermano, e sarebbe sbagliato pensare che « la cultura del computer mina il concetto di dimostrazione». L'intento della «matematica sperimentale» è semmai quello di « giocare un ruolo nella scoperta di dimostrazioni formali, non di eliminarle ». Uno dei settori di ricerca privilegiati della «matematica sperimentale» è quello dei sistemi dinamici non lineari, del caos deterministico, dove la potenza dei moderni calcolatori permette di ottenere una descrizione grafica dell'evolversi di questi sistemi neppure immaginabile ai tempi di Poincaré. Certo, si tratta di immagini che forniscono un formidabile supporto all'intuizione. Ma tutto ciò non è sufficiente per dire che si sono dimostrati teoremi e provate congetture. « Si deve stare attenti » nell'estrapolare i risultati ottenuti dagli esperimenti con i computer, ha fatto osservare Smale: per esempio, lo stesso insieme di Mandelbrot, il più celebre dei frattali, è « incomputabile » nel senso che non si riesce a stabilire con certezza se un dato punto del piano complesso appartiene o no a quell'insieme. Le avvertenze di Smale mettono in guardia contro gli entusiasmi dei fautori della «matematica sperimentale» e rivendicano un ruolo decisivo alla dimostrazione matematica. L'occasione in cui Smale avanzava le sue riserve, una discussione tra alcuni matematici premiati con la Medaglia Fields che si è svolta nel 1992, anticipava una ben più ampia discussione sulla natura della matematica e della dimostrazione, che si è svolta tra il 1993 e 1995 sulle pagine delle riviste dell'American Mathematical Society. XI
·
MATEMATICA
«TEORICA»
E
MATEMATICA
«SPERIMENTALE»
Con l'articolo « Theoretical mathematics »: toward a cultura! syntesis o/ mathematics and theoretical physics (1993) Arthur Jaffe e Frank Quinn hanno posto il problema del rapporto tra ragionamenti intuitivi e dimostrazioni rigorose, tra congetture e teoremi, all'attenzione della comunità internazionale dei matematici. Guardando alla pratica dei matematici, dicono J affe e Quinn, ci si accorge che le informazioni su una struttura matematica vengono acquisite in due fasi distinte. Dapprima si segue un percorso intuitivo, si avanzano congetture, come l'ultimo teorema di Fermat, come l'ipotesi di Riemann, la congettura di Poincaré o i 23 problemi presentati da Hilbert al Congresso di Parigi del 1900, che hanno profondamente influenzato la matematica del nostro secolo; solo in un secondo momento congetture e speculazioni vengono (possibilmente) precisate e dimostrate in maniera formale e rigorosa. In certi casi le congetture vengono accompagnate da indicazioni per una possibile dimostrazione che delineano una sorta di « programma ». J affe e Quinn ricordano per esempio la congettura di Weil, che tracciava un analogo p-adico dell'ipotesi di Riemann individuando un programma la cui realizzazione a opera di Deli-
www.scribd.com/Baruhk
Teoremi e congetture
gne (e Grothendieck) ha costituito un risultato fondamentale della moderna geometria algebrica. O ancora la dimostrazione di Faltings della congettura di Mordell, vista come parte di un programma per la dimostrazione del teorema di Fermat. La stessa dimostrazione di Wiles si colloca lungo questa linea interpretativa, come conseguenza della dimostrazione della congettura di Taniyama-Shimura. Anche il «programma di Mori » per la classificazione delle varietà algebriche di dimensione 3 o la classificazione dei gruppi finiti semplici seguendo il programma delineato da Gorenstein rientrano tra gli esempi più significativi dei «successi» della « matematica teorica». Prendendo a prestito il termine «teorico» nell'uso che ne fanno i fisici, con l'espressione matematica «teorica» Jaffe e Quinn vogliono infatti indicare «il lavoro speculativo e intuitivo », del matematico, la fase di elaborazione delle congetture, riservando l'espressione « matematica rigorosa» alle procedure della dimostrazione formale. Insieme ai « successi », J affe e Quinn ricordano anche che «la maggior parte delle esperienze con la matematica "teorica" sono state meno positive». A loro dire, «questo è particolarmente vero quando del materiale non corretto o semplicemente speculativo viene presentato come ben noto e affidabile». La storia offre alcuni esempi, come quello della «scuola italiana» di geometria algebrica che «non riuscì a evitare il disastro e crollò dopo una generazione di brillanti speculazioni». Tanto che, aggiungono J affe e Quinn, «nel 1946 l'argomento era ancora considerato con tale sospetto» che Weil nell'introduzione alle sue Foundations sentì la necessità di giustificare e difendere il suo interesse per esso. Anche la storia della topologia algebrica e differenziale è ricca di simili episodi. Per esempio, René Thom nei suoi primi lavori sulle varietà differenziabili « è stato brillante e sicuro nelle argomentazioni », affermano J affe e Quinn, mentre lo stesso non si può dire di alcuni successivi lavori sulle singolarità. « Il suo enunciato sulla densità Coo delle mappe topologicamente stabili era sostenuto da una dimostrazione dettagliata, ma incompleta, che fu sistemata solo in seguito da John Mather ». Anche la teoria delle catastrofi era un'applicazione della matematica «teorica» che, nella versione divulgativa datane da Zeeman, si rivelò «fisicamente controversa». Un altro esempio è il « teorema di geometrizzazione » di William Thurston riguardante le strutture sopra le 3-varietà di Haken. La sua dimostrazione, che non venne mai pubblicata per intero « è frutto di una grande intuizione sviluppata attraverso indizi molto belli ma insufficienti » e per molti questo ha rappresentato « più una sorta di blocco stradale che una fonte di ispirazione ». Il lavoro congetturale e speculativo del matematico richiede continue messe a punto, correzioni e verifiche attraverso dimostrazioni che, secondo J affe e Quinn, finiscono per avere in matematica un ruolo analogo a quello che hanno gli esperimenti nelle scienze naturali. E come avviene con le prove di laboratorio, le dimostrazioni non solo rendono affidabili le congetture, ma portano spesso a intuizioni e speculazioni nuove e inaspettate. 141
www.scribd.com/Baruhk
Teoremi e congetture
Tuttavia, mentre nella fisica del Novecento è diventata sempre più chiara la divisione della comunità tra teorici e sperimentali, in matematica «c'è ancora l'idea - e la pratica - che le stesse persone debbano riflettere sulle strutture matematiche e verificare le loro speculazioni per mezzo di dimostrazioni rigorose. In altre parole, la comunità matematica non ha ancora accettato la separazione fra il momento della speculazione e quello del rigore». Anche se, essi aggiungono, «la nostra analisi suggerisce che la divisione della matematica in due comunità, quella speculativa e quella rigorosa, è già iniziata» e, a loro parere, procederà con diversi ritmi di sviluppo. Con maggiore lentezza nelle aree classiche, in maniera molto più spedita nei campi connessi con le simulazioni al computer. E tuttavia Jaffe e Quinn ricordano che nel 1992 un intero Seminaire Bourbaki è stato dedicato all'evoluzione della geometria algebrica e della teoria dei numeri sulla base di alcune congetture di Deligne e Beilinson, per commentare: « È interessante notare che anche Bourbaki, una volta il caposaldo della matematica tradizionale più conservatrice, oggi mostra piramidi di congetture». Jaffe e Quinn individuano la «forza trainante verso la speculazione in matematica » in un nuovo legame con la fisica diverso dalla fisica matematica, che è ancora «la tradizionale matematica rigorosa». Secondo gli autori, «i rapporti tra fisica e matematica risulterebbero considerevolmente più semplici se i fisici riconoscessero i matematici come degli 'sperimentalisti intellettuali', piuttosto che considerarli come dei maniaci di un inutile rigore formale». E, d'altra parte, i fisici teorici potrebbero essere accolti come «matematici speculativi » nella comunità dei matematici. Dunque quella proposta da J affe e Quinn non è solo una maniera diversa di guardare all'attività del matematico. E il risultato della « sintesi culturale » da loro auspicata è anche il possibile terreno di interazione tra matematici e fisici teorici. li Bulletin dell'American Mathematical Society dell'aprile 1994 conteneva una serie di reazioni all'articolo di J affe e Quinn, insieme alla loro replica. Gli autori presentano un'immagine della matematica che «condanna il soggetto a una artritica vecchiaia » obiettava Michael Atiyah. In una fase creativa, è probabile che idee e tecniche nuove siano esposte al dubbio, come è già successo in alcune grandì epoche del passato. Nell'area di confine tra la quantum /ield theory e la geometria sono stati ottenuti numerosi risultati nuovi, confortati da una sicura evidenza. In molti casi sono state ottenute dimostrazioni rigorose, basate su altri metodi. «Tutto ciò fornisce ulteriore fiducia negli argomenti euristici usati in un primo tempo per scoprire i risultati ». Ciò che accade alla frontiera tra geometria e fisica, dice Atiyah, è uno dei fatti più stimolanti della matematica del xx secolo, ricco di ramificazioni e di sviluppi difficilmente prevedibili e «potrebbe benissimo dominare la matematica del XXI secolo». Da parte sua, Thom ricordava che l'ambiente delle sue prime ricerche era quello della matematica francese degli anni cinquanta dominato da bourbakisti come H. 142
www.scribd.com/Baruhk
Teoremi e congetture
Cartan e J.-P. Serre o da gente che avrebbe potuto esserlo, come Whitney. Quell'ambiente culturale lo aiutò a «mantenere un livello di rigore senz'altro accettabile », prima di dar via libera alle proprie tendenze con i lavori sulle singolarità e la teoria delle catastrofi. « Continuo a credere - affermava Thom - che il rigore è una nozione relativa, non assoluta, e dipende dal background che il lettore ha e deve usare nel giudicare. Dal fallimento del programma di Hilbert, dopo il teorema di Godei, sappiamo che il rigore non può essere più di un criterio locale o sociologico». E d'altra parte il termine rigore ricorda il rigar martis, la rigidità di un cadavere, aggiungeva Thom, accompagnando le sue affermazioni con una ironica proposta di classificazione degli articoli di matematica che per esempio prevedeva un segno di croce per denotare gli articoli di autori che aspirano a un completo rigore e a una validità eterna dei loro teoremi. Del tutto diverso il punto di vista di MacLane. A suo parere la sequenza per comprendere la matematica potrebbe essere: «intuizione, tentativo, errore, speculazione, congettura, dimostrazione». Comunque possa variare la combinazione di questi elementi nei diversi domini della matematica, «il prodotto finale è una dimostrazione rigorosa, che conosciamo e sappiamo riconoscere senza il parere formale dei logici». Certo, in molti casi la dimostrazione rigorosa può venire anche molto tempo dopo che un risultato è stato annunciato. «Meglio tardi che mai - era la conclusione di MacLane - dal momento che, in questo caso, mai vorrebbe dire che non si trattava di matematica». Così è accaduto anche nel caso dei geometri italiani, le cui intuizioni richiesero e stimolarono l'elaborazione di metodi algebrici e topologici rigorosi. La matematica, afferma MacLane richiede sia lavoro intuitivo che precisione. «In termini teologici, non ci salva la fede da sola, ma la fede e le opere». Anche se il rapporto con la fisica ha fornito alla matematica stimoli nuovi e fecondi, la matematica non deve imitare lo stile della fisica sperimentale. « La matematica si basa sulla dimostrazione - e la dimostrazione è eterna ». Analoga l'opinione di Armand Borel: « Ho spesso pensato, e anche scritto in qualche occasione, che la matematica è una scienza che, in analogia con la fisica, ha un lato sperimentale e uno teorico, ma opera in un mondo intellettuale di oggetti, concetti e strumenti. In breve, il lato sperimentale è lo studio di casi particolari, sia perché sono interessanti di per se stessi sia perché uno spera di farsi un'idea di un fenomeno più generale, e il lato teorico è la ricerca di teoremi generali. In entrambi mi aspetto delle dimostrazioni, naturalmente, e rifiuto categoricamente una suddivisione in due parti, una con e l'altra senza dimostrazioni». Si pensa normalmente, ha osservato Chaitin, che le cose vere lo siano per qualche ragione. Eppure ci sono delle verità matematiche che stanno al di là della potenza del ragionamento poiché sono accidentali e casuali. L'approccio all'incompletezza elaborato dallo stesso Chaitin rende l'incompletezza « pervasiva e naturale». «Questo perché la teoria algoritmica dell'informazione talvolta consente di misurare il contenuto di informazione di un insieme di assiomi e di un teorema e di con143
www.scribd.com/Baruhk
Teoremi e congetture
eludere che il teorema non può essere ottenuto dagli assiomi poiché contiene troppa informazione». Infine, nella sua lunga risposta (On proo/ and progress in mathematics) Thurston comincia con l'affermare che l'usuale modello «definizione-teoremadimostrazione», anche con l'aggiunta di « speculazione », come suggeriscono J affe e Quinn, non coglie alcuni aspetti essenziali della questione. Il problema è quello di capire come i matematici facciano progredire l'umana comprensione della matematica: «la misura del nostro successo è se quello che facciamo contribuisce a comprendere e pensare la matematica in una maniera più chiara ed efficace ». D'altra parte, la comprensione è una faccenda individuale, difficile da spiegare e da comunicare. Per chiarire la questione Thurston si serve di un esempio elementare ed efficace, quello di derivata di una funzione. Possiamo pensarla in termini di infinitesimi, in termini simbolici, logici, geometrici, in termini di tasso di incremento, come approssimazione e in termini «microscopici» (di limiti). Per non parlare di una definizione in termini di sezioni lagrangiane di fibrati cotangenti. Si tratta di differenti maniere di pensare alla derivata, afferma Thurston, non di definizioni logiche diverse. La maniera umana di pensare e di comprendere non viaggia su un binario unico, non è come quella di una macchina dotata di un unico processare. Anche nel modo di comunicare la matematica «è importante considerare chi comprende cosa e quando». Questo atteggiamento si riflette nell'attività del matematico, quando elabora congetture e stabilisce teoremi, dove « l'affidabilità non deriva in primo luogo da matematici che controllano in modo formale argomenti formali; viene da matematici che pensano in maniera critica e accurata intorno a idee matematiche». La proposta di Jaffe e Quinn di distinguere nell'attività del matematico tra « far congetture » e « dimostrare», « perpetua soltanto il mito che il nostro sviluppo si misura in unità di teoremi standard dimostrati». Quello che i matematici producono, conclude Thurston, è human understanding, comprensione da parte degli uomini, e gli uomini hanno molti modi diversi e molte diverse procedure che contribuiscono allo sviluppo della loro comprensione della realtà, anche quella matematica. Forse hanno ragione Jaffe e Quinn a obiettare a Thurston che la sua analisi sembra applicarsi meglio ad altre scienze che, rispetto alla matematica hanno strumenti molto meno efficaci e rigorosi per stabilire l'affidabilità delle loro conclusioni. Ma anche il concetto di rigore è un concetto storicamente determinato, i suoi standard sono cambiati nel corso del tempo. La discussione è aperta.
144
www.scribd.com/Baruhk
CAPITOLO
QUARTO
L'Intelligenza Artificiale DI ROBERTO CORDESCHI
I
·
INTRODUZIONE
L'Intelligenza Artificiale (IA, d'ora in avanti) ha una storia recente e una data di nascita ufficiale su cui concorda l'intera comunità scientifica: il 1956. Non c'è invece alcuna unanimità sulla definizione del suo programma di ricerca. Tra alcuni filosofi, e anche tra diversi ricercatori del settore, c'è anzi un diffuso scetticismo circa la possibilità stessa di considerare l'IA una scienza. In una sua interpretazione «debole» (per usare un termine reso canonico da John Searle), essa appare piuttosto una pratica sperimentale, tra l'informatica e l'ingegneria. Suo obiettivo sarebbe la costruzione di artefatti con prestazioni tali da assistere l'uomo (e in qualche caso sostituirlo) nella risoluzione di compiti teorici o pratici di diversa complessità. In questa prospettiva, l'IA è vista come il punto d'arrivo di un processo evolutivo che ha consentito di estendere l'automazione da alcune attività del lavoro manuale ad alcune attività del lavoro intellettuale, quali, per esempio, l'elaborazione di calcoli complessi, il controllo e la pianificazione, la consulenza specializzata in alcune prestazioni professionali. Dal momento che di lavoro intellettuale si tratta, non si può non parlare di «intelligenza», ma poiché tale lavoro è completamente «automatico», diventa difficile, od opinabile, precisare la natura di tale intelligenza. In fondo, qui sta l'origine del paradosso sul quale a volte si è insistito: non appena una prestazione del lavoro intellettuale è riprodotta da un artefatto, essa non appare più una funzione intelligente. Secondo un altro punto di vista, l'IA può nutrire l'ambizione a costituirsi in scienza dei principi generali dell'intelligenza e della conoscenza (comuni cioè agli esseri umani e alle macchine), ma ha bisogno, per poter assumere a tutti gli effetti tale statuto, dell'apporto decisivo della logica (qualcosa del genere si dice della fisica, che ha avuto bisogno della matematica per svilupparsi come scienza). I problemi dell'IA consistono dunque in primo luogo nel trovare la logica, o le logiche, pertinenti ai suoi scopi. Diversa ancora è la prospettiva che vede l'IA definirsi in rapporto alle ricerche sull'intelligenza naturale. Quest'ultima, tuttavia, non è a sua volta un dominio ben definito, e la stessa psicologia, la disciplina tradizionalmente deputata al suo studio, 145
www.scribd.com/Baruhk
L'Intelligenza Artificiale
vive in modo alquanto conflittuale il proprio statuto di scienza. Più recentemente, inoltre, ridimensionata l'idea che la mente possa costituire un oggetto di indagine indipendente dal cervello, alcune tendenze dell'IA interessate alla mente sono indotte a fare i conti con i risultati e i metodi di un'altra scienza, la neurologia, con la quale la cibernetica aveva intrattenuto rapporti privilegiati. È interessante notare come già Alan Turing, figura mitica nella storia dell'lA nonostante sia scomparso due anni prima della nascita ufficiale della nuova disciplina, si fosse confrontato con i principali problemi che hanno dato luogo alle diverse interpretazioni del programma di ricerca dell'IA. La celebre macchina astratta che porta il suo nome e la sua tesi del 1935 sulla natura della calcolabilità si basavano, rispetto ad altre formulazioni equivalenti, su una premessa del tutto originale: quella di fornire una descrizione rigorosa di procedura automatica, o più precisamente meccanica, rifacendosi al comportamento di un essere umano che la esegue. 1 :Qopo quella che si potrebbe chiamare, con l'avvento dei primi calcolatori digitali, una realizzazione fisica della sua macchina astratta, Turing discusse le obiezioni alla possibilità di una « macchina intelligente » che si basavano sulla in conciliabilità della nozione di automatismo con quella di intelligenza. Nel secolo scorso forse avrebbe potuto essere un vescovo a muovergli obiezioni del genere. Ai suoi tempi, Turing, come ha ricordato Hodges (1983), trovò invece uno dei principali oppositori in un neurologo, Geoffrey Jefferson, il quale gli obiettava che la logica era inutile per lo studio della mente umana e che era impossibile riprodurre le caratteristiche di quest'ultima in un artefatto non biologico, astraendo cioè dal cervello e, più in generale, dal corpo: un inventario parziale, ma efficace, si direbbe, dei principali problemi con i quali si misurerà l'IA nel corso della sua storia. Anche se la cibernetica aveva fatto la sua parte nel ridimensionare la contrapposizione tra le nozioni di automatismo e di intelligenza, è stata la costruzione dei primi calcolatori digitali a suggerire un modo per ridiscuterla daccapo. In questa analisi degli sviluppi dell'IA verrà pertanto seguita quella che appare la strada maestra nella sua storia, la strada segnata dalle tappe della costruzione del calcolatore, che hanno consentito via via di pensare a esso come a una macchina intelligente, coniugando due termini tradizionalmente molto lontani l'uno dall'altro. II
· VERSO
IL
CALCOLATORE
«INTELLIGENTE»
« Se Babbage fosse vissuto settantacinque anni dopo, io sarei disoccupato »: così sembra dicesse. il fisico Howard Aiken (1900-73) davanti alla sua macchina, il calcolatore Mark I, o Automatic Sequence Controlled Calculator, completato a Harr Per una descrizione della macchina di Turing e del contesto in cui venne formulata la tesi di Turing, si veda il capitolo di C. Mangione in Geymonat, 1976. L'eccellente biografia di Hodges, 1983
ricostruisce il ruolo di Turing nello sviluppo della scienza dei calcolatori. Le ricerche di Turing sono ora raccolte in Turing, 1992.
www.scribd.com/Baruhk
L'Intelligenza Artificiale
vard nel febbraio del 1944. Si trattava di una macchina costttmta di relè elettromagnetici, capace di effettuare calcoli numerici su cifre codificate in rappresentazione decimale. Come la celebre «macchina analitica » mai realizzata, ma progettata in tutti i particolari nel 1837 dal matematico inglese Charles Babbage (1791-1871), il calcolatore di Aiken si basava sull'idea di macchina a programma: le istruzioni per effettuare un calcolo, una volta codificate in forma binaria su un nastro di carta perforato, potevano essere eseguite sequenzialmente in modo automatico, cioè senza l'intervento dell'operatore umano. 2 In un certo senso, Aiken corse veramente il rischio di rimanere disoccupato: qualche anno prima che egli completasse la costruzione del Mark I, nel 1941, l'ingegnere Konrad Zuse (n. 1910) aveva costruito in Germania un calcolatore automatico che per di più usava una rappresentazione completamente binaria. Ma la macchina di Zuse, nota come Z3, andò distrutta durante i bombardamenti degli alleati sulla Germania. Il calcolatore digitale automatico nasceva dunque in Europa nel pieno del secondo conflitto mondiale. È stato Norbert Wiener (1894-1964) a ricordare come esso si sostituisse gradualmente al calcolatore analogico nelle applicazioni belliche. L'elaborazione veloce e precisa di grandi quantità di dati numerici era indispensabile, per esempio, per rendere efficace l'artiglieria di fronte all'accresciuta velocità dei veicoli aerei. Presso il MIT (Massachusetts Institute o/ Technology), Wiener, in collaborazione con l'ingegnere Julian Bigelow, svolse un ruolo di primo piano nella messa a punto di sistemi automatici antiaerei, nei quali l'informazione sull'obiettivo mobile captata dal radar ed elaborata dal calcolatore retroagiva modificando l'asse di puntamento del cannone. Con Bigelow e con il fisiologo Arturo Rosenblueth (1900-70), Wiener pubblicò nel 1943 un sintetico articolo in cui si proponeva di recuperare il linguaggio psicologico (termini come «scopo», «scelta», «obiettivo» e simili) per descrivere sistemi dotati di retroazione negativa come quello appena descritto, in grado, cioè, di rispondere in modo selettivo alle sollecitazioni dell'ambiente, modificando il proprio comportamento al pari degli organismi viventi (Rosenblueth, Wiener e Bigelow, 1943). Quell'articolo è ormai considerato l'atto di nascita della cibernetica, nome con cui Wiener designò qualche anno dopo la disciplina che avrebbe dovuto occuparsi dei meccanismi dell'autoregolazione e del controllo presenti tanto negli organismi viventi quanto nelle nuove macchine con retroazione (Wiener, 1948). Nello stesso 1943, Warren McCulloch (1898-1969), neurologo e psichiatra, firmava con l'allora giovanissimo logico Walter Pitts (1923-69) un saggio destinato a influenzare profondamente tanto la scienza dei calcolatori quanto la progettazione delle più celebri macchine dell'epoca cibernetica (McCulloch e Pitts, 1943). Come
2 Gli aspetti della storia dei calcolatori ricordati in questa sezione sono ampiamente documen-
tati in Goldstine, 1972 e Metropolis, Howlett e Rota, 1980.
147
www.scribd.com/Baruhk
L'Intelligenza Artificiale
ricorderà poi McCulloch, in quel momento egli e Pitts non conoscevano i risultati che Claude Shannon (n. 1916), futuro fondatore della teoria dell'informazione, aveva pubblicato nel1938, sollecitato dai problemi in cui si era imbattuto lavorando, presso il MIT, all'analizzatore differenziale di Vannevar Bush (1890-1974), la più nota macchina analogica dell'epoca. Eppure, tanto McCulloch e Pitts quanto Shannon usavano uno stesso strumento, l'algebra di Boole, per indagare due domini molto diversi: McCulloch e Pitts le reti costituite di neuroni «formali», analoghi semplificati dei neuroni del cervello e funzionanti secondo la legge del tutto o niente (un neurone scatta o non scatta se l'intensità degli impulsi che riceve supera o meno una certa soglia); Shannon i componenti dei circuiti elettrici, funzionanti secondo una legge analoga (un relè scatta o non scatta se la corrente raggiunge o meno una certa intensità). L'intuizione di Shannon fu determinante nella progettazione dei circuiti dei calcolatori digitali. Se nulla sapevano del lavoro di Shannon, McCulloch e Pitts erano perfettamente a conoscenza di quello di Turing, e conclusero che una loro rete di neuroni formali fornita di nastro era equivalente a una macchina di Turing. 3 Mentre la sconfitta della Germania nel secondo conflitto mondiale interruppe il lavoro di Zuse, in Inghilterra e negli Stati Uniti la realizzazione dei grandi calcolatori digitali non conobbe soste, continuando a mobilitare risorse e talenti straordinari che in breve tempo portarono a una vera e propria svolta. In Inghilterra già dalla fine del 1943 funzionavano i COLOSSI, calcolatori automatici impiegati nella decrittazione dei codici militari tedeschi. Si trattava di macchine specializzate nel risolvere solo questo tipo di compiti, ma molto evolute, essendo tra l'altro completamente elettroniche, cioè dotate di valvole al posto dei relè elettromeccanici: un progresso tecnologico che, portando ai calcolatori della cosiddetta prima generazione, avrebbe reso per la prima volta veramente veloce l'elaborazione dei dati. Solo dal 1975 si è cominciato a conoscere le caratteristiche di queste macchine, coperte dal più stretto segreto militare, al cui progetto aveva partecipato un gruppo di ricercatori guidato dal matematico Max Newman e comprendente tra gli altri I.J. Good e Donald Michie. Alla decrittazione del codice della leggendaria macchina tedesca ENIGMA contribuì lo stesso Turing, che nella seconda metà degli anni quaranta partecipò a due diversi progetti di grandi calcolatori: ACE (Automatic Computing Engine) a Teddington e MADM (Manchester Automatic Digitai Machine) a Manchester. Negli Stati Uniti si arrivò a completare la costruzione di un calcolatore elettronico nel 1946. I suoi progettisti, due ricercatori dell'Università di Pennsylvania, ]. Presper Eckert (n. 1919) e John Mauchly (1907-80), lo chiamarono Electronic Numerica! Integrator and Calculator, o ENIAC. Era di sicuro il più grande calcolatore mai costruito ed è solitamente considerato il primo calcolatore di tipo generale: per l'epoca, la migliore realizzazione di una macchina universale nel senso di Turing. 3 Un'ampia selezione degli scritti di McCulloch è in McCulloch, 1989.
www.scribd.com/Baruhk
L'Intelligenza Artificiale
Fu proprio all'interno del gruppo dell'ENIAC che maturò la svolta alla quale abbiamo alluso. Consulente del progetto dell'ENIAC era stato il matematico di origine ungherese John von Neumann. Pochi testi sono rimasti celebri nella storia della scienza dei calcolatori come il First Dra/t redatto da von Neumann nel 1945, dove, adottando la simbologia di McCulloch e Pitts, si descriveva l'architettura di un calcolatore di nuova concezione, che sarebbe rimasta sostanzialmente immutata negli anni a venire: quella di un calcolatore nella cui memoria interna sono depositati non solo i dati, come nei calcolatori realizzati fino a quel momento, ma anche le istruzioni per manipolarli, ovvero il programma, che diventava così modificabile non meno dei dati. 4 A costruire il primo calcolatore con programma memorizzato fu però il gruppo guidato dal matematico Maurice Wilkes (n. 1913), che nel 1949 completò a Cambridge l'EDSAC (Electronic Delay Storage Automatic Calculator). Negli Stati Uniti un calcolatore di questo tipo fu realizzato l'anno seguente con il nome di EDVAC (Electronic Discrete Variable Automatic Computer). III
·
«PENSIERO MECCANICO»
Una caratteristica fondamentale di un calcolatore di tipo generale, già intuita da Babbage, è quella di manipolare non solo simboli numerici, ma simboli generici, con i quali è possibile rappresentare le entità più diverse: parole di una lingua naturale, espressioni matematiche, posizioni di un gioco, oggetti da riconoscere e classificare. Un'altra caratteristica fondamentale del calcolatore, pure intuita da Babbage ma assente nei calcolatori di Zuse e di Aiken, è l'istruzione di «salto condizionato» (conditional branching), con la quale diventa possibile dare al programma del calcolatore una capacità discriminativa. La macchina in questo caso non si limita a operare in base a una sequenza fissa di istruzioni, ma può cambiare l'ordine di esecuzione, in modo che, se una data condizione è soddisfatta, essa effettua le operazioni specificate da una certa parte del programma (da un sottoprogramma), altrimenti ne esegue altre specificate da una diversa parte del programma (da un altro sottoprogramma). Questa capacità, già posseduta dai più progrediti dei COLOSSI e dall'ENIAC, era pienamente valorizzata dalla presenza del programma memorizzato. L'EDSAC era appena stato completato che proprio queste sue due caratteristiche - l'elaborazione di dati non numerici e la presenza dell'istruzione di salto condizionato in un programma memorizzato - furono portate in primo piano per parlare di «pensiero meccanico» dei calcolatori. In un lavoro pubblicato nel 1952 Anthony Oettinger (n. 1929), nel Mathematical Laboratory diretto da Wilkes a Cambridge, descriveva due programmi per l'EDSAC in grado di modificare le proprie pre-
4 Il First dra/t di von Neumann è pubblicato nella raccolta curata da Aspray e Burks, 1987. I suoi famosi saggi dedicati al confronto tra l'archi-
tettura del calcolatore e il cervello sono in traduzione italiana in Somenzi e Cordeschi, 1994.
149
www.scribd.com/Baruhk
L'Intelligenza Artificiale
stazioni sulla base dell'esperienza, ovvero di «apprendere» (Oettinger, 1952). Uno di questi manifestava una forma di apprendimento che oggi diremmo mnemonico. Il compito da eseguire era quello di apprendere dove acquistare certe merci in un mondo simulato di rivenditori. Il programma cercava a caso tra i vari rivenditori fino a scovare la merce desiderata, annotando in memoria presso quale rivenditore l'aveva trovata. Alla richiesta di cercare di nuovo quella stessa merce, il programma raggiungeva direttamente il relativo rivenditore, senza ripetere la ricerca. Inoltre, esso era dotato di una certa «curiosità», come diceva Oettinger: nelle sue ricerche casuali, il programma prendeva nota di altre merci, diverse da quella cercata, fornite dai vari rivenditori in cui si imbatteva, in modo da poter usare questa informazione per abbreviare la ricerca di quelle merci in successive esplorazioni. È evidente come tutto si basasse sulla iterazione di cicli controllati da salti condizionati: il programma continuava nella sua ricerca se la merce non era quella voluta, prendendo nota del risultato, altrimenti si fermava. A stimolare Oettinger erano stati soprattutto tre lavori che risalivano agli anni immediatamente precedenti. Il primo era un articolo di Shannon, in cui l'autore insisteva sull'importanza delle applicazioni non numeriche dei calcolatori digitali, come la programmazione del gioco degli scacchi, oggetto di una sua ricerca sulla quale dovremo tornare (Shannon, 1950). Gli altri due portavano la firma di Turing e di Wilkes, e vertevano sul «pensiero meccanico», ovvero sull'asserita «intelligenza» dei calcolatori. L'articolo di Turing, Computing machinery and intelligence, diventerà uno dei testi più conosciuti e citati nella letteratura relativa alle nuove macchine, sia per le profonde intuizioni anticipatrici di sviluppi futuri, sia per la proposta di quello che egli chiamò il «gioco dell'imitazione» (Turing, 1950). Al gioco partecipano un uomo, una donna e un interrogante, il quale, ponendo le domande più diverse e ricevendo le risposte attraverso due terminali distinti, deve scoprire chi è l'uomo e chi la donna. Turing immagina che, nel dare le risposte, l'uomo tenti di ingannare l'interrogante, mentre la donna tenti di aiutarlo. Egli propone quindi di sostituire all'uomo una macchina - un calcolatore digitale di tipo generale - e di vedere come se la cavi nel gioco, e cioè fino a che punto riesca a ingannare l'interrogante. Quest'ultimo, si chiede Turing, sbaglierebbe nell'identificare i suoi interlocutori altrettanto spesso di quando al gioco partecipava un uomo e non una macchina? Wilkes, riprendendo il gioco dell'imitazione nell'articolo Can machines think?, sosteneva che, per pensare seriamente di « simulare il comportamento umano » con un calcolatore, si sarebbe dovuto progettare un «programma di apprendimento generalizzato », cioè in grado di imparare in qualsiasi campo scelto dal programmatore: un obiettivo molto lontano, date le prestazioni dei programmi realizzati (Wilkes, 1951). Oettinger riteneva che i suoi programmi costituissero delle parziali risposte ai quesiti posti da Turing e da Wilkes. Senza manifestare la capacità «generalizzata» di apprendimento indicata da Wilkes, essi riuscivano tuttavia a migliorare le proprie prestazioni in certi compiti particolari. Inoltre, essi avrebbero potuto superare
www.scribd.com/Baruhk
L'Intelligenza Artificiale
almeno «una forma ristretta», come egli si esprimeva, del gioco dell'imitazione. Da questo punto di vista, Oettinger sembra essere stato il primo a interpretare il gioco dell'imitazione come un test sufficiente (un «criterio», egli diceva) per valutare le prestazioni di particolari programmi per calcolatore in domini limitati. Sarà questa l'interpretazione del gioco dell'imitazione, nota come test di Turing, che diventerà più popolare in seguito. Oettinger osservava inoltre che il calcolatore era usato in questi casi per simulare certe funzioni del cervello, non la sua struttura fisica, e il criterio di Turing poteva servire per verificare solo una corrispondenza funzionale tra calcolatore e cervello. In questo caso, rendendo esplicite alcune intuizioni di Turing, le sue osservazioni coglievano un punto che ispirerà l'orientamento di futuri approcci computazionali ai processi mentali. Anche le sue proposte metodologiche andavano in questa direzione. L'uso simbolico del calcolatore individuava per Oettinger coloro che sarebbero stati in effetti tra i principali utenti delle nuove macchine: « quanti, come gli psicologi e i neurologi, sono interessati alle potenzialità degli attuali calcolatori digitali come modelli della struttura e delle funzioni dei sistemi nervosi organici». D'altra parte, il salto condizionato era da lui interpretato in un'accezione che l'avrebbe reso particolarmente suggestivo per tali utenti. Anche Shannon, nell'articolo ricordato da Oettinger, ne parlava come di una procedura che metteva la macchina nella condizione di decidere o scegliere tra alternative diverse sulla base di risultati ottenuti in precedenza. Ma Oettinger sottolineava questo aspetto come cruciale per i suoi programmi, perché consentiva loro di «organizzare sensatamente (meaningfully) la nuova informazione, e di selezionare modi alternativi di comportamento sulla base di tale organizzazione ». Come si è detto, i programmi di Oettinger erano basati in modo essenziale sul salto condizionato. In fondo, non si trattava che della capacità propria di un calcolatore come l'EDSAC di simulare il comportamento di un dispositivo analogico dotato di retroazione. Ma proprio la cibernetica aveva esaltato le capacità discriminative di tali dispositivi, e come abbiamo visto erano stati Rosenblueth, Wiener e Bigelow a introdurre il linguaggio psicologico della « scelta» e dello « scopo » nella descrizione di questi artefatti. Un invito a un uso quanto meno cauto di termini psicologici come «decisione» o «discriminazione», per non parlare di «pensiero», suggeriti dal salto condizionato venne poi da un successivo intervento di Wilkes (1953). Mentre testimoniava l'effettivo impiego di tali termini da parte di molti programmatori (abbiamo ricordato il caso di Shannon) e riconosceva l'importanza del salto condizionato per la messa a punto di programmi che apprendono come quelli di Oettinger, Wilkes osservava come questa procedura non avesse nulla di straordinario e fosse comunemente usata da qualsiasi programmatore di grandi calcolatori. Tuttavia, procedure di questo tipo, caratteristiche delle nuove macchine, sono state all'origine della discussa plausibilità, sulla quale sarà necessario tornare, di attribuire loro una qualche forma di intenzionalità.
www.scribd.com/Baruhk
L'Intelligenza Artificiale IV · LA
SIMULAZIONE
DEL
CERVELLO
STRUTTURA O
SUL
CALCOLATORE:
FUNZIONE?
L'articolo di Wilkes compariva ripubblicato su uno dei più diffusi periodici scientifici dell'epoca, « Proceedings of the IRE» (Institute o/ Radio Engineers), in un numero speciale del 1953, The Computer Issue, che costituisce forse la migliore testimonianza del livello raggiunto in quel momento dalla progettazione e dalla tecnologia dei calcolatori. L'articolo era seguito da un intervento di Shannon, Computers and automata, una rassegna dei programmi che manifestavano prestazioni paragonabili a quelle umane (Shannon, 1953), e da una lunga serie di contributi che presentavano il calcolatore sotto tutti i suoi aspetti, da quelli della programmazione a quelli dello hardware, e lasciavano intravedere i vantaggi dell'imminente diffusione dei transistori, che avrebbe caratterizzato la seconda generazione di calcolatori. Nella realizzazione dei calcolatori, in prevalenza progettati nel mondo delle università, non era mancato, oltre al sostegno dei militari, l'apporto dell'industria. Negli Stati Uniti, l'IBM aveva contribuito a finanziare il progetto di Aiken, e proprio all'inizio degli anni cinquanta, quasi contemporaneamente alla Ferranti in Inghilterra, era entrata nel mercato con il calcolatore IBM 701, accuratamente descritto nel Computer Issue. Era il primo di una serie di calcolatori elettronici generali con programma memorizzato, utilizzabili per scopi di ricerca teorica ma anche di applicazione industriale, che dovevano portare l'azienda statunitense ad assumere rapidamente un ruolo egemone nel settore. Su questo calcolatore aveva immesso un suo primo programma per il gioco della dama Arthur Samuel (n. 1901), allora ricercatore presso l'IBM, un cui articolo introduttivo apriva il Computer Issue. Nell'aprile dello stesso 1953 si era tenuta a New York l'ultima Macy Conference di Cibernetica, decimo di una serie di appuntamenti che, a partire dal marzo 1946, avevano visto crescere intorno alla proposta di Wiener l'interesse di filosofi e scienziati di formazione molto diversa. A chiudere la Conferenza era stato McCulloch, con un Sommario dei punti di accordo raggiunti nelle precedenti conferenze (McCulloch, 1955). Tra questi egli ricordava le sue reti formali e i risultati di Turing, ma neppure un cenno era dedicato all'emergente impiego del calcolatore come macchina generale e al suo possibile ruolo nel programma cibernetico. E questo nonostante egli fosse solito descrivere il cervello, per la verità piuttosto genericamente, come «un calcolatore digitale dotato di retroazione ». Se si confrontano i resoconti di questa Conferenza con gli interventi contenuti nel Computer Issue, si ha la sensazione di avere a che fare con due mondi molto distanti l'uno dall'altro. Un successivo convegno, al quale partecipava lo stesso McCulloch, sembrò finalmente fare i conti con il ruolo che il calcolatore poteva svolgere nelle scienze della mente e del cervello. Insieme a Oettinger, al biologo Otto Schmitt e a Nathaniel Rochester, direttore di ricerca dell'IBM, McCulloch era uno dei quattro relatori del Simposio dedicato al Progetto di macchine che simulano il comportamento del cer-
www.scribd.com/Baruhk
L'Intelligenza Artificiale
vello umano, organizzato nel 1955 dalla IRE National Convention (McCulloch e altri, 1956). Invitati a discutere le relazioni erano, tra gli altri, Mauchly, Pitts e Marvin Minsky (n. 1927), matematico a Harvard. La lettura del resoconto di questo Simposio è illuminante: si ha la sensazione di avere davanti l'inventario degli argomenti principali, degli approcci metodologici, delle ambizioni e delle difficoltà che verranno in primo piano nel decennio successivo, e in qualche caso anche in tempi più recenti. Sullo sfondo o al centro dei temi dibattuti al Simposio vi erano i pr1m1 programmi per calcolatore già funzionanti, o comunque in fase di sperimentazione, che in un modo o in un altro imitavano prestazioni umane o competevano con esse. Alcuni erano stati già illustrati da Shannon nel Computer Issue, e Oettinger nel suo intervento ne citava altri. C'erano anzitutto i programmi in grado di eseguire, a vari livelli, giochi di diversa complessità: quello per la dama, suggerito da Turing a Cristopher Strachey, chè lo pubblicò nel 1952; quello di D.W. Davies per il filetto, che girava su un calcolatore DEUCE; quello per il nim. Il calcolatore NIMROD, costruito dalla Ferranti, aveva giocato al nim con i visitatori della mostra scientifica del Festival of Britain del 1951, dove si trovava esposto insieme alle celebri «tartarughe» meccaniche di Walter Grey Walter (r9ro-77) (Turing, che era tra i visitatori di questa esposizione delle meraviglie delle nuove macchine, giocò con il calcolatore e riuscì a batterlo). C'erano poi i programmi già ricordati dello stesso Oettinger, e quello più recente di Rochester, il quale, con John Holland (n. 1929) e altri ricercatori, si era proposto di simulare su un IBM 701 la teoria sviluppata nel libro del 1949, The organization o/ behavior, dallo psicologo Donald Hebb (1904-85), per il quale l'apprendimento consisteva nel rafforzamento delle connessioni tra neuroni, o gruppi di neuroni, ripetutamente attivati. Al Simposio si confrontarono posizioni diverse. La discussione con Pitts portava Oettinger a chiarire la sua affermazione circa l'interesse suscitato dal calcolatore digitale sia nelle ricerche neurologiche, dove esso può essere usato per controllare teorie del funzionamento del cervello, sia nella simulazione delle «funzioni mentali superiori», che può essere invece ottenuta senza simulare ciò che si sa o si ipotizza al livello della struttura biologica, cioè del cervello. La ricerca sulla simulazione delle funzioni suggerisce a sua volta i modi in cui migliorare le prestazioni di macchine come i calcolatori, tanto distanti dal cervello sul piano della somiglianza strutturale. Come esempio del primo tipo di ricerche Oettinger citava il programma che Rochester aveva presentato al Simposio insistendo a sua volta sulla proposta metodologica di « usare i calcolatori automatici moderni per controllare certi aspetti di alcune teorie del funzionamento del cervello ». La fig. l riproduce il ciclo metodologico illustrato da Rochester, che va dall'implementazione sul calcolatore del modello di una teoria del cervello, all'estrazione delle implicazioni del modello, al loro controllo, all'uso dei dati per confermare, refutare o modificare la teoria. Il ciclo era stato sperimentato sulla teoria di Hebb, che aveva dovuto subire alcune 153
www.scribd.com/Baruhk
L'Intelligenza Artificiale
Calcolo di alcune implicazioni del modello
Modello teorico
t
~
Uso dei risultati per confermare, refutare o modificare il modello teorico
Esperimento per verificare se le predizioni sono corrette
Fig. l. Il ciclo metodologico proposto da Nathaniel Rochester nel 1955, in cui il calcolatore è usato per controllare la teoria dell'apprendimento di Hebb (da McCulloch e altri, 1956).
modifiche suggerite dal modello implementato sul calcolatore. Molto dibattuta al Simposio fu la questione sollevata da Schmitt: se i calcolatori dovevano imitare la duttilità di ragionamento manifestata dal cervello umano, bisognava che ricorressero non alla rigida logica del sì e del no (o bivalente), ma a una logica sfumata, o « grigia », come egli diceva. In una breve polemica con McCulloch, infine, Minsky si dichiarava scettico sullo stato dei modelli con « memoria distribuita », e rifiutava di ritenere, come gli veniva proposto, che un buon esempio di tali modelli fosse una macchina dotata delle semplici capacità autoorganizzative dell'« omeostato » di William Ross Ashby (1903-72). 5 V
·
STRATEGIE
SODDISFACENTI
Il Simposio del 1955 si era svolto mentre Samuel completava l'implementazione su un IBM 704 di un nuovo programma per la dama, destinato a rimanere una pietra miliare nelle ricerche sull'apprendimento automatico. Egli sviluppò alcune precedenti intuizioni di Shannon sulla programmazione degli scacchi, ma scelse la dama per la maggiore semplicità delle regole, che rendeva il gioco effettivamente trattabile al calcolatore. Lo studio del comportamento decisionale nei giochi ha svolto un ruolo di primo piano nella ricerca che è all'origine dell'lA, ed è dunque interessante ricostruirne in dettaglio le premesse e i principali sviluppi. Shannon aveva cominciato a pensare a un programma su calcolatore per gli scacchi intorno alla metà degli anni quaranta. Anche su questo argomento Turing aveva detto la sua: con Good, aveva simulato « a mano » un programma per gli scacchi che nelle caratteristiche fondamentali richiama quello di Shannon. Quest'ultimo, 5 L'omeostato, una delle più note macchine dell'era cibernetica, era descritta da Ashby, 1952 come un sistema « ultrastabile >>, in grado non solo di autocorreggere il proprio comportamento (come i sistemi dotati di retroazione negativa o « stabili >>)
ma anche di autoorganizzarsi, cioè di cambiare la propria organizzazione interna al fine di reagire in modo appropriato a un disturbo proveniente dall'ambiente.
154
www.scribd.com/Baruhk
L'Intelligenza Artificiale ---· +0,3
-0,1
--=:::----------· -0,1 -- .. +0,6 --· -0,5
-0,1 _______-_,_?.._-:< ____________ -7
---- .. +0,2
--· -6
-6
--=:::: ___________ -1,5 --- .. +3
Bianco
Nero
Fig. 2. La funzione di valutazione applicata a un semplice albero parziale del gioco degli scacchi. L'albero si percorre a ritroso (nella figura, da destra verso sinistra). Le contromosse del Nero (le linee tratteggiate) che procurerebbero al Bianco la vittoria o il vantaggio maggiore hanno i punteggi più alti, sotto forma di numeri positivi più grandi, mentre le contromosse del Nero che porterebbero il Bianco alla sconfitta o a posizioni di svantaggio maggiore hanno i punteggi più bassi, sotto forma di numeri negativi più grandi. Assumendo che il Nero, al fine di minimizzare il vantaggio del Bianco, sceglierebbe una delle tre mosse con numeri negativi più grandi (- 0,1; - 7; - 6), si assegnano questi ultimi alle tre possibili mosse alternative del Bianco (le linee continue). A questo punto, la mossa migliore per il Bianco è quella delle tre che, in quanto massimizza il proprio vantaggio, ottiene il punteggio più alto, in questo caso - 0,1 (da Shannon, 1950).
descritto nell'articolo del 1950 già ricordato, si basava sull'idea di valutare la mossa migliore attraverso un'analisi anticipativa delle mosse alternative del gioco, sulla base di una procedura nota come minimax. Si tratta di una procedura che risale alle prime formulazioni della teoria matematica dei giochi, sulla quale aveva lavorato a partire dagli anni venti anche von Neumann. Il giocatore di scacchi era diventato una metafora comune nell'analisi dei processi di decisione e aveva trovato infine una formulazione rimasta classica nel libro che von Neumann aveva pubblicato nel 1944 con l'economista Oskar Morgenstern, Theory o/ games and economie behavior. Nella loro terminologia, gli scacchi, al pari di altri giochi come la dama, il nim o il filetto, sono «determinati univocamente ». Un modo per rappresentarli è l'albero del gioco. Esso viene generato a partire da una posizione o un nodo iniziale considerando prima tutte le mosse lecite (i nodi raggiungibili da quello iniziale applicando le regole del gioco), poi tutte le risposte dell'avversario e così via. Un giocatore perfettamente razionale, in effetti onnisciente, sarebbe in grado di « vedere » l'intero albero del gioco, e dunque di scegliere la migliore successione di mosse attraverso la valutazione delle conseguenze finali di ciascuna mossa alternativa: gli basterebbe assegnare valori distinti alle posizioni finali, corrispondenti alla vittoria, al pareggio e alla sconfitta; quindi risalire l'albero a ritroso applicando la procedura del minimax, stabilendo cioè a ogni nodo quale ramo lo porta a una posizione di 155
www.scribd.com/Baruhk
L'Intelligenza Artificiale
Livello
2
3
Livello precedente di valutazione
Fig. 3. L'apprendimento rnnemonico nel programma per la dama di Arthur Samuel. Normalmente, la valutazione verrebbe eseguita fino allivello 3. Ma in questo caso alla posizione 0 risulta assegnato un punteggio nel corso di una valutazione precedente, che è stato conservato in memoria. Ciò permette di migliorare la valutazione a ritroso (da Samuel, 1959).
vantaggio massimo per lui e minimo per l'avversario, fino a tornare alle alternative della sua prima mossa e prendere la decisione. Nella pratica questa strategia esaustiva o per «forza bruta» trova in generale una difficoltà insormontabile nell'esplosione combinatoria delle mosse possibili, addirittura più che astronomica nel caso degli scacchi, che Shannon calcolava nell'ordine di I0120 • Egli propose perciò una prima modifica di questa strategia, consistente nel generare l'albero del gioco solo fino a una certa profondità, nell'assegnare determinati valori ai nodi così raggiunti e nel valutare a ritroso i cammini mediante una funzione di valutazione basata sulla procedura del minimax (vedi fig. 2). Consapevole del fatto che una procedura simile era in genere radicalmente inefficiente, Shannon si pose il problema di come migliorarla, al fine di « sviluppare una strategia passabilmente buona per selezionare la mossa successiva», e ipotizzò di incorporare nel programma (più precisamente, nella funzione di valutazione) accorgimenti e criteri di selettività che rimandavano direttamente agli studi dello psicologo olandese Adrian de Groot su maestri di scacchi i quali riferivano le loro analisi « ad alta voce » durante il gioco. Lo studio più approfondito della possibilità di implementare la funzione di valutazione si deve a Samuel. Il suo obiettivo era di usare la dama per sperimentare le capacità di apprendimento delle macchine. Il programma di Samuel, prima di valutare una posizione, controllava in memoria se essa non fosse stata valutata in precedenza, in modo da non perdere tempo a ripetere l'operazione. Questa forma di apprendimento mnemonico, già sperimentata in semplici compiti da Oettinger, fu potenziata da Samuel in modo che la memorizzazione di una posizione valutata aumentasse le capacità anticipative del programma: quando (come mostra la fig. 3) un nodo terminale di un albero da esplorare in avanti coincideva con il nodo iniziale di un albero già esplorato, la cui valutazione era stata dunque memorizzata, la ricerca arrivava di fatto a una maggiore profondità, quella dell'albero già esplorato (Samuel, 1959).
www.scribd.com/Baruhk
L'Intelligenza Artificiale
Il riferimento di Shannon a de Groot suggeriva la possibilità di una strada sensibilmente diversa da quella tentata da Samuel e consistente nell'affrontare il problema dell'esplosione combinatoria studiando più da vicino i processi umani della scelta. Ora proprio questi erano stati oggetto delle ricerche di Herbert Simon (n. 1916), studioso del comportamento decisionale e delle organizzazioni complesse. Già in anni precedenti Simon aveva abbandonato l'impostazione normativa della teoria dei giochi, che consisteva nello studio della scelta o della strategia che l'agente dovrebbe attuare al fine di massimizzare le possibilità di raggiungere una soluzione ottimale. Egli aveva invece introdotto la dimensione psicologica nello studio della scelta, attraverso l'analisi del comportamento decisionale che l'agente normalmente attua, condizionato com'è tanto dai propri limiti interni, per esempio di memoria o di capacità di usare dati e conoscenze di cui dispone, quanto dalla complessità dell' ambiente in cui si trova. Simon sviluppava questo punto di vista non normativo nel volume Administratz've behavior, pubblicato nel 1947, punto d'arrivo di un filone di ricerca premiato molti anni dopo con un Nobel per l'economia. Il giocatore di scacchi restava per Simon la metafora del comportamento dell'agente razionale, ma questa volta era descritto non sotto il profilo dell'astratta razionalità onniscente dell'uomo economico, ma sotto quello della razionalità limitata del solutore di problemi reale. I suoi limiti interni e la complessità dell'ambiente esterno, ben rappresentata dal gioco degli scacchi, non gli consentono di mettere in atto strategie ottimali, ma solo strategie parziali che risultano più o meno «soddisfacenti», secondo il termine di Simon. Queste idee di Simon furono all'origine, nel 1952, della sua ipotesi di un programma per gli scacchi che non fosse basato in modo cruciale sui perfezionamenti della funzione di valutazione di Shannon, ma piuttosto sull'implementazione di quelle strategie soddisfacenti che egli aveva considerato il cuore dei processi umani di soluzione di problemi. In quel periodo Simon era già in contatto con Allen Newell (1927-92), un fisico della RAND Corporation che si occupava di organizzazioni complesse. Newell aveva seguito i corsi del matematico George Polya, che nel suo How to salve it del 1945 aveva definito i processi della soluzione di problemi come « euristici», cioè basati sull'uso di indizi e di espedienti utili alla ricerca della soluzione: un'idea che richiamava molto da vicino quella della strategia soddisfacente di Simon. Newell ha raccontato di essere rimasto colpito da un programma che gli rese chiare le enormi potenzialità del calcolatore come macchina non numerica: Oliver Selfridge, già assistente di Wiener al MIT, aveva messo a punto nel 1954 un programma che era in grado di riconoscere configurazioni come lettere dell'alfabeto o semplici figure geometriche, tra i primi esempi di quella che si sarebbe chiamata pattern recognition. Decise allora di sperimentare le capacità di elaborazione simbolica del calcolatore con il gioco degli scacchi. 6 Nel gennaio del 1956, tuttavia, Simon comunicava 6 Questa testimonianza di Newell è raccolta da McCorduck, 1979.
157
www.scribd.com/Baruhk
L'Intelligenza Artificiale
per lettera a de Groot che lui e Newell, accantonato il progetto del programma per gli scacchi, erano invece sul punto di concludere quello di un dimostratore automatico di teoremi della logica enunciativa (Simon, 1991). Nel frattempo, ai due si era unito Clifford Shaw (n. 1922), un abile programmatore. Come gli scacchi o gli altri giochi ricordati, anche la dimostrazione di teoremi poteva essere rappresentata come un albero. Ma si tratta di un albero (o di un « labirinto », come inizialmente si diceva) diverso da quello del gioco, dove vengono rappresentate le mosse antagoniste di due giocatori. Newell, Shaw e Simon ne diedero una formulazione che è all'origine di quella che poi sarebbe diventata nota come la rappresentazione dello spazio degli stati. La ricerca della soluzione viene vista in questo caso come la ricerca di un cammino dell'albero che, attraverso l' applicazione di opportuni operatori, porta da un nodo (uno stato) assunto come iniziale a quello finale Oa soluzione del problema). Come nell'albero del gioco, anche qui si ripresenta il problema dell'esplosione combinatoria. In teoria, se fosse possibile esplorare in modo esaustivo tutti i cammini a partire dallo stato iniziale, prima o poi si arriverebbe alla soluzione del problema (posto che essa esista); basterebbe fissare l'ordine in cui esaminare i nodi, stabilendo così una procedura per trovare tutti i successori di un dato nodo: Newell, Shaw e Simon la chiamarono «algoritmo del British Museum ». L'agente o il solutore di problemi reale non mette mai in pratica un algoritmo del genere, ma segue piuttosto procedure che fanno uso di informazioni parziali o di indizi. L'idea dei tre autori era che un programma su calcolatore, per essere in grado di affrontare il problema dell'esplosione combinatoria, avrebbe dovuto incorporare tali procedure, qualificabili come euristicheJ Su questa intuizione si basava il programma noto come Logic Theorist (LT), che arrivò a stampare una quarantina di teoremi del calcolo degli enunciati dei Principia mathematica di Bertrand Russell e Alfred Whitehead. Un'idea di tale intuizione, che è risultata tra le più importanti nell'ambito della cosiddetta programmazione euristù:a, può essere data rifacendosi a una «versione modificata del LT », come Newell, Shaw e Simon definirono inizialmente, nel 1958, un successivo programma di dimostrazione di teoremi, poi chiamato Genera! Problem Solver (GPS). Sulla base degli operatori, un insieme di regole della logica enunciativa, questa versione del LT trasformava una formula logica data come iniziale nella formula che rappresentava il teorema da dimostrare, individuando differenze tra le due formule e selezionando l'operatore adatto per eliminarle. Il ciclo «trasforma-elimina la differenza-applica l'operatore», organizzato come una gerarchia di sottoprogrammi, poteva essere ripetuto più volte, evitando la proliferazione esaustiva delle formule e generando, in caso di successo, solo quelle via via più simili alla formula cercata (Newell, Shaw 7 Inizialmente Newell, Shaw e Simon contrapposero gli algoritmi (intesi come procedure complete) alle euristiche (intese come procedure che non garantiscono la soluzione). Successivi sviluppi
della ricerca portarono a valutazioni diverse. Il lavoro di Nilsson, 1971 diede una prima sistemazione alle idee sull'argomento, che qui appaiono in uno stadio germinale.
www.scribd.com/Baruhk
L'Intelligenza Artificiale
e Simon, 1962). Questa euristica, detta «mezzi-fine», si rivelò poi di portata molto generale, cioè applicabile anche ad «ambienti del compito», per usare l'espressione dei tre autori, diversi da quello della logica: di qui l'attribuzione di generalità al loro programma. VI
· LE
n calcolatore
EURISTICHE
PRIMA
E
DOPO
DARTMOUTH
stampò la prima dimostrazione del LT nell'agosto del 1956. Il LT, tuttavia, aveva già svolto un ruolo da protagonista nell'ormai famoso seminario estivo organizzato nel giugno del medesimo anno da Minsky, Rochester, Shannon e dal matematico John McCarthy (n. 1927). L'incontro, come si legge nella proposta presentata alla Fondazione Rockefeller che decise di finanziarlo, aveva come obiettivo di esaminare «la congettura che ogni aspetto dell'apprendimento o qualsiasi altra caratteristica dell'intelligenza può in linea di principio essere specificata con precisione tale che diventi possibile costruire una macchina che la simuli ». 8 n seminario si svolse ad Hannover, nel New Hampshire, nello stesso Dartmouth College in cui, nel 1940, Wiener e Mauchly avevano assistito al funzionamento di una macchina di George Stibitz, all'epoca progettatore di macchine a relè molto avanzate. Erano passati sedici anni: il periodo più denso di eventi cruciali nella storia dei calcolatori e dell'elaborazione automatica dell'informazione. Il Seminario di Dartmouth fu la fucina dei programmi manifesto della Intelligenza Artificiale, come venne battezzata la disciplina i cui presupposti abbiamo individuato nei primi sviluppi della scienza dei calcolatori. A Dartmouth furono presenti in momenti diversi, oltre ai promotori dell'incontro, i principali ricercatori già attivi nella progettazione di programmi per calcolatore con prestazioni « intelligenti »: Newell, Simon, Selfridge, SamueP Dopo Dartmouth, si sarebbero formati i centri storici della ricerca in IA: presso la Carnegie-Mellon University con Newell e Simon, presso il MIT con Minsky, presso la Stanford University con McCarthy; in Inghilterra, l'eredità di Turing fu raccolta da Michie a Edimburgo. A Dartmouth gli autori del LT ebbero modo di discutere con McCarthy un aspetto della sua programmazione che non era di poco conto: il LT era scritto non in linguaggio macchina (cioè in successioni finite di cifre binarie, corrispondenti all'assenza o alla presenza di un impulso), ma in un linguaggio di livello superiore. Newell, Shaw e Simon si erano resi conto della difficoltà di scrivere programmi per compiti complessi direttamente in linguaggio macchina. L'esigenza di disporre di un programma che traducesse in quest'ultimo linguaggio le istruzioni formulate dall'operatore mediante un linguaggio più vicino a quello naturale era avvertita da tempo. JOHNNIAC
8 Il testo è citato da McCorduck, 1979. 9 Il classico volume di Feigenbaum e Feld-
man, 1963 raccoglie le ricerche di diversi protagonisti di Dartmouth e dei loro primi continuatori.
159
www.scribd.com/Baruhk
L'Intelligenza Artificiale
All'inizio degli anni cinquanta progressi unportanti in questa direzione erano stati fatti da Heinz Rutishauser e da Corrado Bohm a Zurigo. Nel 1954 un gruppo di ricercatori dell'IBM diretto da John Backus completava infine il FORTRAN (FORmula TRANslator), il primo linguaggio di programmazione di livello superiore. Quello di Newell, Shaw e Simon, lo IPL (Information Processing Language), aveva comunque caratteristiche proprie, tagliate su misura per gestire la complessità dei programmi euristici. L'ispirazione di fondo dello IPL, quella della programmazione a liste, fu ripresa nel 1958 da McCarthy nel LISP (LISt Processar), destinato a rimanere il linguaggio di elezione dell'lA. 10 li LT viene spesso presentato come il progetto allo stato di realizzazione più avanzato tra quelli discussi a Dartmouth e come il primo programma di IA che facesse esplicitamente uso di euristiche. Prima del LT, tuttavia, esistevano programmi che incorporavano procedure che si sarebbero potute definire euristiche: prime tra tutte, quelle che consentivano al programma di Samuel di migliorare le proprie prestazioni nell'affrontare l'esplosione combinatoria delle mosse del gioco. Benché non fossero pensate con questa finalità, data l'estrema semplicità dell'ambiente del compito, si sarebbero potute definire euristiche anche le procedure selettive presenti nei programmi di Oettinger, il quale, pur senza usare quel termine, citava esplicitamente il libro di Polya How to salve it. Senza entrare nel merito della disputa sui primati, va detto che il termine « euristica » conteneva all'origine una duplicità che poteva essere esplicitata tenendo conto di obiettivi diversi. Ed era proprio la diversità degli obiettivi a distinguere i due programmi più evoluti disponibili all'epoca di Dartmouth, il LT e il programma di Samuel. Newell, Shaw e Simon erano interessati prevalentemente a implementare sul calcolatore programmi che riproducessero i processi umani di soluzione di problemi. I limiti che il LT rivelava sotto questo aspetto indussero i tre autori a intraprendere il progetto del GPS, con il quale essi ritennero di aver raggiunto il loro obiettivo principale: riuscire a confrontare non tanto la prestazione finale di un programma con quella di un essere umano, quanto e soprattutto i processi computazionali che costituivano il programma (la sua « traccia ») con i processi impiegati dai salutari di problemi umani alle prese con un certo compito, così come era possibile ricavarli da un protocollo registrato mentre essi riferivano « ad alta voce » le loro mosse. Fu sulla base di protocolli del genere, per esempio, che venne studiata e programmata l'euristica mezzi-fine del GPS. Di più: valutando che il test di Turing riguardasse solo le prestazioni e non i processi, Newell, Shaw e Simon non lo accettarono come test sufficiente dell'intelligenza delle macchine; per loro il vero test era costituito dalla riuscita del confronto dettagliato traccia-protocollo. Inoltre, il GPS,
ro Sullo sviluppo dei primi linguaggi di programmazione si vedano i saggi dedicati all'argo-
mento in Metropolis, Howlett e Rota, 1980.
!60
www.scribd.com/Baruhk
L'Intelligenza Artificiale
dal momento che si era dimostrato capace di risolvere diversi tipi di problemi (di scacchi, di integrazione numerica e vari rompicapo), lasciava sperare di riuscire a riprodurre in un programma un'altra caratteristica dell'intelligenza umana, la sua versatilità in ambienti di compito diversi, con l'obiettivo finale di arrivare a simulare una soluzione di problemi generale o integrata. Queste implicazioni erano totalmente estranee all'obiettivo di Samuel, che era quello di costruire un giocatore automatico efficiente, indipendentemente dalla plausibilità psicologica in senso stretto dei processi selettivi implementati nel programma, e tale restò nei successivi perfezionamenti che egli apportò al suo programma, fino a renderlo capace di battere al gioco il suo stesso autore e anche giocatori di ottimo livello. D'altra parte, è proprio in questa direzione che si mosse la programmazione degli scacchi al calcolatore. Nonostante i successivi tentativi di Newell, Shaw e Simon di affrontare l'esplosione combinatoria con strategie selettive ispirate a quelle dei giocatori umani, i veri progressi nella programmazione degli scacchi sono stati conseguiti con l'implementazione di algoritmi che esplorassero in modo efficiente e fino a grande profondità l'albero del gioco. Questo approccio è stato reso possibile dalla crescente velocità di elaborazione dei dati tipica dei calcolatori con circuiti integrati su alta e altissima scala delle ultime generazioni. Non a caso la programmazione degli scacchi ha perso interesse per quanti, come Newell e Simon, avevano pensato ai calcolatori come a un laboratorio per studiare i processi umani della soluzione di problemi. L'idea che euristiche efficienti fossero indispensabili per rendere « trattabili » problemi teoricamente solubili in cui è presente l'esplosione combinatoria è stata alla base della cosiddetta teoria della complessità computazionale, sviluppata verso la fine degli anni sessanta soprattutto dai lavori di S.A. Cook e R.M. Karp. Essi hanno fornito un quadro teorico per l'analisi di diversi problemi di decisione e di ottimizzazione posti in precedenza, come abbiamo ricordato, dalla teoria dei giochi.H VII
·
SIMBOLI
O
NEURONI?
Alle origini dell'lA, due possibili accezioni del termine eunstlca contribuivano dunque a individuare tendenze di ricerca ben distinte, le cui aspirazioni hanno influito sulla successiva evoluzione della disciplina: quella interessata alla simulazione più dettagliata possibile dei processi cognitivi umani e quella interessata alla prestazione più efficiente possibile dei programmi, attraverso procedure anche «non umane». Nel 1961, discutendo un'esposizione del GPS fornita da Simon durante un . n È nell'ambito della complessità computaZionale che è stata sollevata la questione degli <> (Rabin, 1974), che tuttavia è restata sempre piuttosto sullo sfondo della ricerca
in lA. Una rassegna di alcuni sviluppi recenti sulla complessità computazionale (legati alla logica non monotòna di cui diremo) è data da Cadoli e Schaerf, 1993.
r6r
www.scribd.com/Baruhk
I.:Intelligenza Artificiale
seminario al MIT, Minsky tracciò una netta distinzione nella ricerca in IA proprio in questi termini, attribuendo al gruppo della Carnegie-Mellon l'obiettivo della simulazione del comportamento. A sua volta Simon, riprendendo una distinzione già individuata nell'ambito della ricerca sulle macchine intelligenti da Pitts prima di Dartmouth, ribadiva che l'« imitazione della gerarchia di cause finali che chiamiamo mente», caratteristica di ogni impresa dell'rA, si contrapponeva all'« imitazione del cervello », tipica della precedente tradizione della cibernetica. 12 A questo proposito, dopo il Simposio della IRE Convention del1955, in cui Minsky aveva sollevato dubbi sull'efficacia dei modelli a memoria distribuita, si era tenuto a Teddington, nel 1958, il Simposio sulla meccanizzazione dei processi del pensiero, al quale avevano partecipato neurologi e psicologi come R.L. Gregory, esperti di programmazione come Backus, cibernetici come Ashby, McCulloch, Donald MacKay, Gordon Pask, protagonisti di Dartmouth come McCarthy, Selfridge e lo stesso Minsky. Nel suo intervento Minsky, dopo aver presentato l'emergente programmazione euristica come lo studio dei « processi sin tattici che comportano la manipolazione di espressioni simboliche», esprimeva un radicale scetticismo verso i «modelli a reti neurali », e in generale verso i sistemi localmente causali e autoorganizzanti. Questa volta Minsky non si riferiva alla semplice autoorganizzazione alla Ashby, ma alle più recenti e progredite macchine a reti neurali con memoria distribuita, presentate allo stesso Simposio. Tra queste c'era il Perceptron, ideato alla Cornell University da Frank Rosenblatt, una macchina che « imparava » a distinguere e classificare stimoli visivi provenienti dall'ambiente. Nella sua versione più semplice, presentata a Teddington, il Perceptron era composto di un unico strato di neuroni del tipo di McCulloch e Pitts, collegati in ingresso con un'unità sensoriale corrispondente a una retina e in uscita con due unità di risposta. I neuroni, o unità associative, avevano un «valore» (un «peso», come poi si dirà) variabile, che consentiva alla macchina di migliorare la propria prestazione dopo una procedura di «addestramento». Questa consisteva nel modificare il valore delle connessioni se la risposta della macchina non era quella corretta. Rosenblatt era straordinariamente ottimista sulle potenzialità del Perceptron, che a Teddington descrisse come «un analogo del cervello biologico [. .. ] capace di idee originali». Sostenne anche che era una sterile pretesa quella di voler riprodurre le capacità del cervello attraverso i calcolatori digitali, « programmati per seguire regole», dunque capaci magari di giocare più o meno bene a scacchi, ma certo non di migliorare le loro prestazioni spontaneamente, interagendo con l'ambiente (Rosenblatt, 1959). Era proprio questa la conclusione che Minsky attaccò: pur manifestando qualche forma elementare di adattamento e apprendimento, anche i modelli a reti neu-
12
La discussione tra Minsky e Simon è ora in Greenberger,
1962.
www.scribd.com/Baruhk
L'Intelligenza Artificiale
rali più evoluti come il Perceptron non erano in grado di eguagliare la programmazione euristica quando si trattava di riprodurre comportamenti cognitivi complessi.13 L'entusiasmo suscitato da tali modelli, dovuto essenzialmente a una loro maggiore somiglianza strutturale con il cervello «naturale» e a un certo parallelismo del loro funzionamento, per Minsky non era giustificato, data la loro dubbia capacità di manipolare strutture simboliche e concetti di ordine superiore. Sembrava difficile pensare seriamente che da cambiamenti, come egli si esprimeva, a «livello microscopico» in sistemi come le reti neurali potessero emergere cambiamenti significativi a «livello del comportamento manifesto», cambiamenti che invece cominciavano a essere sperimentati con successo con i sistemi dotati di organizzazione gerarchica complessa come i programmi euristici per calcolatore. Di più: anche se si fosse riusciti a fornire una rete neurale di meccanismi per la formazione di concetti semplici, per catturare i processi superiori si sarebbe sempre dovuto ricorrere a sistemi euristici «formali o linguistici». Tanto valeva, concludeva Minsky, abbandonare lo studio delle reti neurali e dedicarsi a « quella che alcuni di noi chiamano intelligenza artificiale» (Minsky, 1959). Il Simposio di Teddington sanciva all'interno della comunità degli studiosi di macchine intelligenti quella divergenza di metodi e di obiettivi che aveva preso forma prima della nascita ufficiale dell'lA a Dartmouth. Ciononostante, le due tendenze quella degli «imitatori del cervello» e quella dei «manipolatori di espressioni simboliche» - convissero e si confrontarono in successivi incontri comuni: per esempio, nelle due Conferenze interdisciplinari sui sistemi autoorganizzanti del 1959 e del 1961, che videro la partecipazione di tutti i principali protagonisti di Dartmouth e di Teddington. In particolare negli anni sessanta, il lavoro sulle reti neurali continuò ad affiancarsi a quello dell'lA un po' ovunque, a opera di diversi ricercatori, come Albert Uttley, Wilfrid Taylor, Bernard Widrow (che erano stati relatori a Teddington), Eduardo Caianiello, Augusto Gamba, Karl Steinbuch. In molte ricerche sul Perceptron si sperimentarono regole diverse di apprendimento, simulazioni e anche realizzazioni elettroniche. Consapevoli dell'interesse che i loro lavori potevano suscitare nel mondo degli psicologi, tanto Rosenblatt quanto gli autori del LT li presentarono sulla più diffusa rivista di psicologia americana, la « Psychological Review », che nel 1958 pubblicava sia la descrizione del Perceptron sia quella del LT. L'articolo di Rosenblatt (1958) era sicuramente il più ostico, nonostante in quell'occasione egli esplicitasse i propri legami con quella che definiva la « posizione connessionista » di Hebb e di precedenti psicologi associazionisti. Benché la rivista continuasse poi a pubblicare altre ricerche sul Perceptron, fu il gruppo della Carnegie-Mellon che riuscì a ottenere l'eco più vasta tra gli psicologi, inserendosi con tempestività nel dibattito, che in 13 Minsky si dichiarava scettico anche nei confronti del Pandemonium, la nuova macchina descritta da Selfridge a Teddington, nella quale
l'informazione veniva elaborata in parallelo da una gerarchia di unità dette «demoni».
www.scribd.com/Baruhk
L'Intelligenza Artificiale Comportamento l! mano ,nella . soluzione di problemi
--<-----
Confronto della traccia con il ---protocollo
"
G
GPS
}
/
Teoria dell'elaborazione dell'informazione
Processi elementari dell'informazione
fis~o~~~?~ r---..,----/---. {
Sistema
nervoso
A questo livello non c'è alcuna corrispondenza diretta
....,-H_a_rdw_a-re--.. } del cal&>latòre
Linguagqio di elaborazione dell'informazione per il calcolatore
Fig. 4· ll funzionalismo della prima IA: i processi dell'informazione possono essere realizzati da strutture materiali diverse, il sistema nervoso umano e l'hardware del calcolatore (da Simon, 1961).
quel momento li divideva, sui problemi del metodo sperimentale, della costruzione della teoria psicologica, del rapporto tra studio della mente e ricerca neurologica. Nel loro articolo Newell, Shaw e Simon (1958) tracciavano un ritratto efficace della psicologia dell'epoca, descrivendola nella morsa della « polarizzazione » tra comportamentismo e gestaltismo, che effettivamente era avvertita come paralizzante da molti psicologi. A costoro essi indicavano un itinerario inedito quanto allettante, che consisteva nel riconoscere la complessità dell'oggetto studiato (la mente), come richiedevano i gestaltisti, ma nel rivendicare nello stesso tempo la necessità di un suo studio scientifico, come invocavano i comportamentisti, attraverso un nuovo metodo di controllo operativo delle teorie psicologiche. Il punto di partenza era il calcolatore come macchina generale simbolica, con i suoi processi elementari di elaborazione dell'informazione, dai tre autori descritti come processi di lettura-scritturaconfronto di simboli, di associazione di simboli, di salto condizionato. Essi sono alla base di processi più complessi, quali le euristiche di un programma come il GPS, scritto in un opportuno linguaggio di programmazione. L'ipotesi, come mostra la fig. 4, era che i processi elementari sono analoghi a quelli usati dagli esseri umani, e sono alla base dei processi umani dell'informazione più complessi, a loro volta euristici, desumibili dai pr9tocolli verbali. Il successo del confronto fra tracce del calcolatore e protocolli, del quale abbiamo parlato, giustificava l'ipotesi, e dunque l'impresa stessa della psicologia come scienza: la simulazione dei processi cognitivi al calcolatore (Simon, 1961). Proprio la costruzione dei modelli cognitivi offriva il nuovo metodo di controllo operativo della teoria, nella versione del ciclo epistemologico costruzione della teoria-controllo-modi/t'ca in fondo già indicata da Rochester. Un esempio dell'applicazione di tale metodo era l'abbandono del LT per una sua « versione modificata », il GPS. Questa proposta dava
www.scribd.com/Baruhk
L'Intelligenza Artificiale
agli psicologi la sensazione di avere un loro legittimo ruolo: la psicologia era finalmente autonoma dalla neurologia, e per una buona ragione. Dal momento che i processi elementari possono essere realizzati in sostrati fisici diversi - il cervello e lo hardware del calcolatore - il potere causale della struttura fisica sulla mente è indipendente dalla specifica realizzazione o « instanziazione » di tale struttura nel cervello biologico. Non è previsto confronto a livello delle diverse strutture, secondo l'ipotesi funzionalista implicitamente formulata ai tempi delle prime discussioni sul «pensiero meccanico». Dopo gli anni bui del comportamentismo, la mente era dunque riconsegnata agli psicologi dai costruttori di macchine. L'uomo, visto come elaboratore di informazione simbolica, diventava il protagonista della nuova In/ormation Processing Psychology: la psicologia dell'elaborazione dell'informazione. 14 VIII
• APPROCCI
SEMANTICI
Uno dei programmi di IA concepito all'epoca del Seminario di Dartmouth si era proposto di affrontare il problema dell'esplosione combinatoria con uno stile sensibilmente diverso da quello della rappresentazione dell'albero o dello spazio degli stati. Si trattava della Geometry Theorem Machine, un programma che girò poi nel 1959 su un IBM 704, scritto in una versione modificata del FORTRAN da Herbert Gelernter (n. 1929) e da altri programmatori del gruppo di Rochester. La macchina dimostrava un discreto numero di teoremi di geometria piana euclidea, ricorrendo a uno stratagemma già indicato da Minsky a Dartmouth, dove Gelernter era stato presente. 15 Nei programmi della prima IA, che giocavano o dimostravano teoremi, il significato dei simboli era considerato ininfluente. Nel GPS, per esempio, tutto si riduceva a un puro e semplice pattern matching: si confrontavano cioè strutture o configurazioni fisiche di simboli diverse (in effetti, formule ben formate della logica enunciativa) consistenti in lettere e in segni come «v», «" » e così via (i connettivi logici), e si applicavano operatori per eliminare certe differenze tra tali strutture, «come se [queste] fossero pezzi di legno o metallo», come dirà poi Simon (in Simon e Sikl6ssy, 1972). La novità della Geometry Machine era che, pur applicando per dimostrare un teorema l'euristica mezzi-fine nella forma della scomposizione del problema in sottoproblemi più semplici, nel guidare la ricerca essa non usava, come il LT o il GPS, solo metodi cosiddetti «sin tattici» di pattern matching tra enunciati. La macchina disponeva di una figura geometrica (codificata come un elenco di coordinate) corrispondente all'enunciato del teorema; quando generava un sottoproblema, lo con14 Un'analisi dei presupposti di tale teoria e dei suoi sviluppi fino all'« ipotesi del sistema fisico di simboli >> della quale diremo, si trova in Cordeschi, 1984- Per i riferimenti alla psicologia di que-
sto secolo, si veda il capitolo di L. Mecacci nel volume XI. r 5 Si vedano tuttavia le successive precisazioni di Gelernter in Siekmann e Wrightson, 1983.
www.scribd.com/Baruhk
L'Intelligenza Artificiale
frontava con la figura, e lo scartava subito se risultava incompatibile con essa: « se volete, [qui] sta la nostra intelligenza artificiale!», concludeva Gelernter (1959). Successivi esperimenti convinsero gli autori della Geometry Machine che questa poteva addirittura competere con un essere umano in una forma « ristretta », come essi dicevano, del test di Turing, limitata cioè alla dimostrazione di teoremi della geometria. Si riteneva che la Geometry Machine usasse un'interpretazione semantica degli enunciati per controllare la ricerca, non diversamente da come fa un dimostratore umano. In effetti, l'approccio sintattico della prima IA era coerente con gli sviluppi prevalenti in un settore con il quale essa ha intrattenuto all'origine rapporti privilegiati, quello della linguistica trasformazionale di Noam Chomsky. Con il tempo tali rapporti sono divenuti sempre più conflittuali; eppure Simon (1991) ricorda ancora con piacere come nello stesso convegno dell'IRE al MIT del 1956, qualche mese dopo Dartmouth, mentre egli e Newell presentavano l'implementazione del LT, Chomsky esponeva i lineamenti della teoria linguistica che l'anno successivo avrebbe pubblicato in Syntactic structures. Con questo libro Chomsky instaurò un vero e proprio primato della sintassi nello studio del linguaggio, un primato con il quale la successiva ricerca ha dovuto sempre fare i conti. I primi approcci alla manipolazione automatica del linguaggio naturale in termini di analizzatori sintattici delle frasi devono molto alle sue idee. D'altra parte, le strutture formali delle grammatiche trasformazionali non mancarono di attrarre l'attenzione di quanti lavoravano allo sviluppo dei linguaggi di programmazione e dei loro compilatori. C'era poi un settore della ricerca precedente alla nascita ufficiale dell'lA in cui gli aspetti computazionali della sintassi svolgevano un ruolo da protagonisti, e i problemi semantici venivano deliberatamente accantonati: quello della traduzione automatica. Si trattava di un settore di ricerca nato quasi agli albori dei calcolatori digitali, che però trovò impulso nell'immediato dopoguerra soprattutto a opera di Warren Weaver. Al calcolatore, come abbiamo visto già sperimentato nella, decrittazione dei codici, era assegnato in questo caso un compito che non andava molto al di là della sostituzione, mediante un dizionario bilingue, di una parola con una equivalente, seguendo le regole della grammatica e riducendo la semantica, quando non se ne poteva fare a meno, allo studio di qualche regolarità statistica. Tra i primi a mettere in pratica questo tipo di approccio era stato Oettinger. Trasferitosi a Harvard, a partire dalla metà degli anni cinquanta awiò un progetto per la realizzazione di una macchina per la traduzione dal russo all'inglese. Nel decennio successivo si attivarono centri di ricerca un po' ovunque, in Europa occidentale, in Unione Sovietica, in Giappone. Nonostante la mobilitazione di risorse e l'entità dei finanziamenti, dopo qualche successo iniziale la traduzione automatica sembrava essersi arenata. Nel 1966, a seguito del cosiddetto rapporto ALPAC, negli Stati Uniti i finanziamenti furono interrotti. Lo stesso Oettinger, profondamente deluso, smise di occuparsi di traduzione automatica, se non per tornare a ribadire r66
www.scribd.com/Baruhk
L'Intelligenza Artificiale
l'intrinseca impossibilità dell'impresa, firmando infine una sua prefazione a uno dei testi diventati in seguito un punto di riferimento per ogni critico dell'lA, What computers can't do, del fùosofo Hubert Dreyfus (n. 1929). 16 Ironia della sorte: Oettinger era stato uno degli obiettivi preferiti delle invettive contro il «pensiero meccanico» contenute in una precedente pubblicazione del 1961, questa volta di un ingegnere, Mortimer Taube, Computers and common sense: the mith o/ thinking machines. La difficoltà che meglio riassume il motivo del fallimento di quella che veniva definita la « traduzione completamente automatica di alta qualità » è stata discussa da un altro pioniere del settore, Yehoshua Bar-Hillel (Bar-Hillel, 1960) e può essere espressa in questi termini. Data la frase «il cane si è inceppato», il parlante di lingua italiana sa che qui con «cane» ci si riferisce non all'amico dell'uomo, diciamo CANE, ma al percussore, CANEl. Come potrebbe una macchina tradurre correttamente la frase in inglese, dove CANE è dog mentre CANEl è cock, senza sapere ciò di cui si parla? Casi del genere possono moltiplicarsi a piacere a conferma del fatto che una buona traduzione interlingua (ma in generale una buona comprensione delle lingue) non può prescindere dai significati suggeriti dal contesto e dalla conoscenza implicita nel lessico dei parlanti. Ora, è possibile o è invece da escludere, come concludeva lo stesso Bar-Hillel, che si riesca a riprodurre queste caratteristiche in un programma per calcolatore? L'idea di ricorrere a un modello che tenesse conto delle connessioni associative tra le parole di un dizionario per rendere più flessibile l'impiego del lessico maturò proprio nel contesto della traduzione automatica: nei primi anni sessanta la sperimentarono tra gli altri Margaret Masterman e Silvio Ceccato, con le sue « sfere nozionali ». 17 A partire dalla tesi di dottorato del 1966 con Simon alla Carnegie-Mellon, M. Ross Quillian elaborò una proposta che si è rivelata tra le più feconde di sviluppi fino ai nostri giorni: quella di «rete semantica ». Obiettivo di Quillian era più in generale la costruzione di un modello della memoria semantica psicologicamente plausibile, che implementato in un calcolatore riproducesse qualche aspetto della capacità degli esseri umani di comprendere un testo e di ricavare inferenze da un insieme di conoscenze. È a questo punto che gli obiettivi dell'rA cominciarono ad allontanarsi da quelli di Chomsky. Secondo Quillian il suo modello dimostrava che i problemi legati alla comprensione di un testo, si trattasse di analizzarlo, tradurlo o interpretarlo per rispondere a domande, in generale non si esaurivano nella costruzione di un analizzatore sintattico: la questione cruciale era di «estrarre [dal testo] una rappresentazione cognitiva» circa il significato delle parole. Di qui il ruolo centrale attribuito alla memoria semantica. 16 Pubblicato nel 1972, il libro, che suscitò molte discussioni, è stato successivamente ristampato con aggiornamenti sul tema del « non poter fare» dei calcolatori, fino all'ultima edizione con
titolo modificato: What computers stili can't do (Dreyfus, 1992). 17 La storia della traduzione automatica è raccontata da Hutchins e Somers, 1992.
www.scribd.com/Baruhk
L'Intelligenza Artificiale
cP~NT) STRUCTURE
~~GET3
LIVE
l\
.
LFROM3
"' .
'.-Fo,oo
0? THING
~
HAS·TO
~
T07 LKEEP
L uve Fig. 5·
Una rete semantica di M. Ross Quillian (da Minsky, 1968).
Questa era concepita da Quillian come una sterminata rete frammentata in « piani », porzioni di nodi della rete che rappresentano il significato di una parola del lessico, ovvero di una voce del dizionario. Per rappresentare, poniamo, il significato della parola plant, che in inglese ha tre significati diversi, Quillian usava tre nodi diversi, detti «patriarchi»: PLANT (pianta, in italiano), PLANTl (impianto) e PLANT2 (piantare). Essi erano collegati tra loro mediante «legami associativi», in modo da poterli esplorare in successione per decidere poi a quale significato di plant ci si riferisce in un determinato contesto. In un certo senso, si trattava di un meccanismo di disambiguazione con il quale si poteva provare ad affrontare la difficoltà indicata da Bar-Hillel. Infatti, a ciascuno dei tre nodi patriarchi corrispondeva un piano distinto, strutturato come una gerarchia di nodi subordinati al patriarca e collegati a loro volta da legami associativi ad altri nodi patriarchi appartenenti ad altri piani. Nella fig. 5, il nodo patriarca PLANT è collegato da tali legami ai nodi subordinati STRUCTURE (struttura) e LIVE (vivo, vivente), e il piano relativo è delimitato da un rettangolo. A sua volta, ciascuno di tali nodi rimanda ad altri piani, che rappresentano il significato delle parole corrispondenti. In questo modo si stabiliscono legami associativi più diretti tra alcuni nodi che non tra altri, con il risultato, poniamo, che PLANT ma non PLANTl risulta direttamente collegato con FOOD (cibo), e i due sono a loro volta collegati con LIVE: più o meno così CANEl, ma non CANE, risulterebbe direttamente collegato con FUCILE. !68
www.scribd.com/Baruhk
L'Intelligenza Artificiale
n lavoro
di Quillian venne pubblicato in una raccolta curata da Minsky nel
1968, Semantic in/ormation processing, insieme a una serie di ricerche svolte al MIT
nella prima metà degli anni sessanta, tutte incentrate sulla rappresentazione della conoscenza. Alcuni programmi della raccolta sono rimasti molto noti, come ANALOGY di Thomas Evans, che riconosceva analogie tra semplici figure geometriche, STUDENT di Daniel Bobrow, che risolveva qualche problema di algebra elementare, sm (Semantic In/ormation Retrieva[) di Bertram Raphael. Scritto in LISP, SIR era in grado di rispondere ad alcune domande che implicavano la conoscenza di semplici relazioni logiche, come l'appartenenza e l'inclusione insiemistiche, e di qualche loro proprietà, come la transitività dell'inclusione. Questo gli permetteva di ricavare un ridotto numero di inferenze, relative a un dominio molto ristretto, non esplicitamente codificate nella sua base di dati. La conoscenza era rappresentata internamente nel programma come un certo numero di «schemi» (templates) prefissati del tipo « ** è parte di ** », dove le variabili ** sono nomi. Con tali schemi il programma confrontava le frasi in inglese date in ingresso e, applicando regole di sostituzione e quantificazione delle variabili che accorrevano in essi, mostrava di « capire» frasi come «un dito è parte di una mano». Capire il significato di una frase, secondo Raphael, consisteva nel processo automatico che si riassumeva nel riconoscere gli oggetti della frase e nel collocarli nella relazione specificata. La possibilità di risolvere qualche semplicissima ambiguità attraverso questa procedura induceva Raphael e Minsky a concludere che approcci semantici di questo tipo avevano maggiori potenzialità rispetto a quelli sintattici sostenuti dalla linguistica e anche a quelli basati sulla semplice ricerca euristica nello spazio degli stati. Gli «eccellenti risultati», osservava Minsky, ottenuti dall'uso del modello semantico della Geometry Machine ne erano stati la prima dimostrazione (Minsky, 1968). Anche Simon era di questo parere. n «semplice paradigma dell'albero della ricerca», come egli definiva ormai la ricerca euristica della soluzione nello spazio degli stati, aveva dato il meglio di sé, e i futuri programmi dovevano avere la capacità di usare in modo sempre più esteso l'informazione utile per la soluzione di un problema (Simon, 1972). D'altra parte, egli osservava come nei programmi studiati per comprendere il linguaggio naturale la distinzione chomskiana tra competenza (la conoscenza astratta del linguaggio) e prestazione (la realizzazione di tale conoscenza in specifiche capacità linguistiche) tendesse a dissolversi. Una serie di ricerche svolte alla Carnegie-Mellon tra il 1965 e il 1969 documentava questo approccio, sostanzialmente convergente con quello del MIT. Un programma di Stephen Coles, per esempio, usava l'informazione semantica contenuta in una raffigurazione corrispondente a una frase ambigua per decidere quale delle possibili analisi sintattiche della frase era quella corretta in relazione al contesto dato (Simon e Sikl6ssy, 1972). Sistemi «ibridi» di questo tipo, per usare il termine di Simon, mettevano a frutto la lezione della Geometry Machine: essa non aveva una sola rappresentazione dello spazio della ricerca, quella dell'albero o dello spazio degli stati, ma ne aveva anche una seconda, sotto
www.scribd.com/Baruhk
L'Intelligenza Artificiale
forma di uno « spazio semantico », quello delle figure geometriche, e la sua efficienza era dovuta all'uso delle due rappresentazioni. Il problema del controllo della ricerca, concludeva Simon, si legava ormai a quello della rappresentazione della conoscenza. IX · GENERALITÀ
E
CONOSCENZA
Le prestazioni del programma ELIZA, implementato da Joseph Weizenbaum (n. 1923) in quegli stessi anni al MIT, si basavano su una procedura che ricordava quella
del confronto di schemi di SIR: parole date in ingresso venivano associate con parole chiave codificate nella base di dati. Il programma riusciva così a colloquiare con un essere umano simulando il comportamento di uno psicoterapeuta. ELIZA è rimasto il più famoso tra i programmi di comprensione del linguaggio di quegli anni perché superò in qualche caso una «forma ristretta» del test di Turing: alcuni pazienti che interagirono con il programma lo scambiarono per un terapeuta umano. In un libro diventato molto popolare, Weizenbaum trasse da questo risultato conclusioni pessimistiche e persino preoccupate sull'utilità dell'impresa dell'lA (Weizenbaum, 1976). Al di là delle valutazioni più generali di Weizenbaum, visti retrospettivamente questi programmi « semantici » degli anni sessanta appaiono davvero poco semantici. Le loro prestazioni erano limitate a domini ridottissimi, e la conoscenza era fornita implicitamente negli schemi o nelle parole chiave dati dal programmatore. La stessa analisi sintattica consisteva in semplici procedure ad hoc. Le entusiastiche valutazioni che Minsky dava dei programmi contenuti nella raccolta del 1968 appaiono oggi esagerate, non meno della sua ottimistica previsione sugli sviluppi futuri, che invece non andarono nella direzione del perfezionamento di questo tipo di esperienze. Tuttavia, pur nella loro rozzezza, questi programmi hanno posto per primi un'esigenza che costituirà uno dei baricentri della ricerca successiva in IA: quella di costruire sistemi in grado di gestire conoscenze sul mondo attraverso loro adeguate rappresentazioni. A metteme in risalto l'importanza per questo obiettivo fu un allievo di Simon, Edward Feigenbaum (n. 1936), in un intervento alla Information Processing Conference del 1968 in cui egli si proponeva di indicare le prospettive dell'lA per il «successivo decennio» (Feigenbaum, 1969). Dalla Camegie-Mellon, dove sotto la supervisione di Simon aveva messo a punto un programma per calcolatore, noto come EPAM, che simulava i processi umani della memorizzazione di sillabe prive di senso, Feigenbaum era approdato a Stanford e i suoi interessi erano cambiati. A Stanford aveva incontrato Joshua Lederberg, Nobel per la genetica, e a partire dal 1965 i due avevano avviato un progetto destinato ad aprire all'lA una nuova dimensione applicativa, con conseguenze di tipo commerciale in quel momento imprevedibili. Come chiariva Feigenbaum nel suo intervento, presentando i primi risultati delle ricerche condotte con Lederberg, il progetto si collocava in quella che egli considerava «la tendenza principale dell'impresa dell'lA: la soluzione di problemi nel paradigma della ricerca euristica ». Con una fondamentale differenza, tuttavia:
www.scribd.com/Baruhk
L'Intelligenza Artificiale
l'ambiente del compito scelto non era quello dei problemi ben definiti e dei «problemi giocattolo », sui quali si era esercitata la programmazione euristica fino a quel momento, cioè la logica, gli scacchi e i vari giochi e rompicapo. Al contrario, il loro programma affrontava un compito complesso: l'induzione e la formazione di ipotesi in un problema di natura scientifica, che consisteva nell'individuare la struttura molecolare di composti organici non noti. Il diagramma di flusso di tale programma si sviluppava in un ciclo che riproduceva l'osservazione dei dati, la formazione di ipotesi, la predizione e il controllo secondo la procedura canonica del metodo scientifico «baconiano », come lo definì Michie nella discussione che seguì l'esposizione di Feigenbaum all'Information Processing Conference. Nella sua versione originaria, il programma, scritto in LISP e battezzato DENDRAL (DENDRitic ALgorithm), era composto da un «Generatore di ipotesi» e da un « Previsore ». Come chiariranno in seguito i suoi autori, queste due parti di DENDRAL rispecchiavano la filosofia « generalista » del GPS, nel senso che incorporavano il metodo più generale e, come allora si disse, più «debole» possibile della ricerca euristica come la concepivano Newell e Simon, quello del «genera -e-controlla». Il Generatore definiva lo spazio del problema di DENDRAL come uno spazio delle ipotesi, in modo del tutto analogo, osservava Feigenbaum, a un generatore delle mosse consentite di un programma per gli scacchi. La generazione delle ipotesi sulla struttura molecolare poteva essere esaustiva, basandosi su un algoritmo già individuato da Lederberg. A sua volta, il Previsore, che controllava le ipotesi e selezionava quelle plausibili, era definito un «esperto», ma un esperto molto generale: la sua competenza era la teoria della spettrometria di massa. La novità di DENDRAL era che il Previsore non esaminava tutte le ipotesi prodotte dal Generatore secondo l'algoritmo di Lederberg, ma solo un suo sottoinsieme, selezionato da un « Processare di inferenze preliminari». Era questo il vero «specialista», poi definito come un pianificatore che opera sulla base di conoscenze e regole euristiche relative allo spettro di massa e ai costituenti atomici della molecola che si desidera individuare. DENDRAL è considerato il capostipite dei «sistemi esperti», come verranno subito chiamati quei sistemi di IA che impiegano estesamente conoscenze specialistiche per risolvere problemi complessi. Esso potrebbe essere visto come l'antagonista del GPS, che, nella forma originaria di solutore di problemi generale e integrato, si dimostrava ormai inattuabile. Non va dimenticato, tuttavia, che DENDRAL, nelle intenzioni dei suoi autori, rappresentava all'inizio uno studio sul nesso critico esistente tra generalità e potenza delle euristiche (Feigenbaum e altri, 1971). La loro conclusione fu che le euristiche generali, i «metodi deboli », si dimostrano efficienti solo quando vengono associati a qualche euristica specializzata per un certo dominio di conoscenze. In questa forma, i metodi deboli continuarono a costituire gli elementi portanti di diversi sistemi di ricerca euristica in IA. Una parte della successiva sperimentazione su DENDRAL, per esempio, si è concentrata sullo studio dei vincoli da imporre al pianificatore.
www.scribd.com/Baruhk
L'Intelligenza Artificiale
Michie, nell'occasione già ricordata, qualificò DENDRAL un esempio di «ingegneria epistemologica ». Feigenbaum ha raccontato poi di aver preferito l'espressione « ingegneria della conoscenza», che è ormai entrata nel gergo per qualificare uno dei punti critici della ricerca sui sistemi esperti: come trasferire in un programma di IA il patrimonio di conoscenza euristica che caratterizza un esperto umano. Feigenbaum ha raccontato anche la diffidenza che DENDRAL incontrò inizialmente presso i «generalisti», coloro che, anche senza aderire all'impostazione originaria del GPS, pensavano che il compito dell'lA fosse la ricerca dei principi generali dell'intelligenza che potevano essere trasferiti nelle macchine. Va detto comunque che, prima dello sviluppo di calcolatori con grandi memorie a partire dagli anni settanta, la gestione di basi di conoscenza estese come quelle richieste dai sistemi esperti non era un obiettivo perseguibile. Solo dopo quella data i sistemi esperti riuscirono a diffondersi nei settori più diversi, dalla medicina, alla geologia, all'ingegneria, all'istruzione assistita, e a trasformarsi spesso in altrettanti prodotti commerciali. Lo stesso Feigenbaum fondò in seguito una società per la progettazione e la vendita di software per sistemi esperti. X
·
PERCORSI
DELLA
LOGICA
Nel famoso libro Perceptrons, pubblicato nel 1969 da Minsky con Seymour Papert, che era approdato al MIT dopo diverse esperienze europee, i due, come si suole ripetere, assassinarono le reti neurali, dimostrando l'incapacità dei Perceptron alla Rosenblatt di discriminare stimoli visivi anche molto semplici (Minsky e Papert, 1969). Con la pubblicazione di quel testo, tuttavia, non era entrata in crisi solo la proposta dei sistemi autoorganizzanti e delle reti neurali (le cui prestazioni, come Minsky aveva previsto a Teddington, non andavano oltre la riproduzione di semplici attività di classificazione e associazione), ma anche alcuni « paradigmi » dell'lA. Tra le posizioni generaliste che gli autori di DENDRAL respingevano non c'era solo il GPS, ma anche un programma di tipo generale di cui McCarthy aveva delineato il prototipo all'epoca del Simposio di Teddington (McCarthy, 1959). I:Advice Taker - era questo il nome del programma - avrebbe dovuto essere in grado di elaborare piani e ricavare conseguenze sulla base di un corpo di conoscenze sufficientemente esteso, facendo anche uso di «consigli» provenienti dal programmatore. I:Advice Taker condivideva con il GPS l'aspirazione alla generalità, ma McCarthy insisteva sul modo uniforme in cui rappresentare la conoscenza che il sistema aveva dell'ambiente, inevitabilmente basata su credenze e aspettative o, come egli diceva, sul «buon senso». Tale conoscenza doveva essere rappresentata sotto forma di enunciati della logica predicativa assunti come assiomi o premesse, e le conseguenze dovevano essere ricavate mediante le regole di tale logica. Un primo tentativo di implementare almeno alcune caratteristiche dell'Advice Taker risale al 1964 e si deve a Fisher Black: Minsky lo aveva incluso in Semantic in/ormation processing, avvertendo però che si trattava dell'« articolo meno "seman172
www.scribd.com/Baruhk
L'Intelligenza Artificiale
tico" della raccolta». L'aspirazione alla generalità e a un meccanismo di deduzione uniforme che caratterizzava I'Advz'ce Taker fu però ripresa esplicitamente solo dopo la formulazione di una nuova procedura di deduzione automatica, rivelatasi all'inizio particolarmente promettente. Si trattava del principio di risoluzione di J. Alan Robinson, che uno studente di McCarthy, Cordell Green, incorporò in un programma Questz'on Answerz'ng, denominato QAJ, in grado di rispondere a domande su domini diversi (Green, 1969). Alle spalle del risultato di Robinson vi erano gli studi di ricercatori interessati a un tipo di dimostrazione automatica di teoremi che non aveva come obiettivo la simulazione dei processi umani, ma si richiamava a precedenti risultati di logici come Skolem, Herbrand e Gentzen. In particolare, Hao Wang aveva già ribaltato i calcoli di Newell, Shaw e Simon sull'efficienza delle euristiche del LT, implementando su un mM 704, tra il 1958 e il 1959, tre procedure algoritmiche che in pochi minuti dimostravano buona parte dei teoremi del calcolo enunciativo e predicativo dei Prz'ncz'pz'a mathematù:a. Le successive ricerche di Martin Davis, Hilary Putnam e Dag Prawitz culminarono nel lavoro del 1965 di Robinson, il quale descrisse un calcolo logico senza assiomi, ma con un'unica regola di inferenza, corretta e completa, detta« risoluzione ». 18 Per alcuni anni la maggior parte del lavoro sulla deduzione automatica si concentrò sui cosiddetti « raffinamenti » della risoluzione, che perseguivano l'obiettivo di rendere efficiente la ricerca delle dimostrazioni senza rinunciare al requisito della completezza della risoluzione. L'interesse per i raffinamenti è testimoniato dai numerosissimi articoli sull'argomento pubblicati su Machz'ne Intellz'gence, la raccolta curata dal gruppo di Michie, che cominciò a uscire periodicamente dal 1967, e su «Artificial Intelligence », la prima rivista dedicata all'IA, pubblicata a partire dal 1970. Questi periodici testimoniano però anche il cambiamento di rotta verificatosi nella prima metà degli anni settanta, quando l'insoddisfazione per i risultati raggiunti dalla ricerca sui raffinamenti della risoluzione riaccese l'interesse per una dimostrazione di teoremi meno sensibile al requisito della completezza e più attenta alle procedure euristiche ispirate ai metodi umani di soluzione di problemi, meno sintattici e uniformi e più legati a conoscenze relative a domini specifici. W.W. Bledsoe è stato forse colui che, lavorando inizialmente sui raffinamenti, «passò dall'altra parte », come egli disse, con maggiore convinzione: il suo programma per dimostrazioni insiemistiche IMPLY si richiamava anche all'impostazione euristica di Newell e Simon e di Gelernter. 19 Questa riscoperta di euristiche ispirate ai metodi umani non decretò tuttavia l'abbandono della risoluzione. Al contrario, più o meno nello stesso periodo in cui veniva data per superata, essa spianò la strada a un nuovo stile di programmazione, 18 Per questo aspetto del rapporto tra logica si rinvia al capitolo di G. Lolli. 19 Per una ricostruzione delle origini e degli sviluppi della risoluzione e dei suoi raffinamenti si
e
IA
veda Cordeschi, 1984. I contributi degli autori ricordati, che hanno segnato le origini della dimostrazione automatica, sono stati raccolti da Siekmann e Wrightson, 1983.
173
www.scribd.com/Baruhk
L'Intelligenza Artificiale
introdotto da Robert Kowalski e noto come «programmazione logica». Quest'ultima usa un raffinamento della risoluzione che è completo e insieme efficiente per una particolare e importante classe di formule, le clausole di Horn (dal nome del logico che le aveva studiate). Tale raffinamento venne presto incorporato nel PROLOG (PROgrammation en LOGique), il linguaggio di programmazione sviluppato nella prima metà degli anni settanta in alcune università europee: anzitutto a Edimburgo e, con Alain Colmerauer, a Marsiglia. 20 XI
·
PROBLEMI
DI
BUON
SENSO
La difficoltà di estendere le prestazioni di QA3 in ·presenza di problemi complessi e di basi di dati allargate scoraggiò Green dal continuare a perseguire l'obiettivo di un sistema capace di rispondere a domande che fosse « generale, formale e deduttivo», come egli si esprimeva pensando all'Advice Taker. Come ha osservato lo stesso McCarthy (1988), fu questa difficoltà relativa alle tecniche di controllo del ragionamento che portò all'elaborazione di programmi assai complessi come STRIPS (STan/ord Research Institute Problem Solver) e i suoi successori. In STRIPS, progettato nel 1969 presso lo SRI (Stan/ord Research Institute) da Richard Fikes e Nils Nilsson, la conoscenza era rappresentata ancora una volta mediante la logica del primo ordine e la deduzione era sempre affidata alla risoluzione, ma la pianificazione era effettuata tramite una versione evoluta dell'euristica mezzi-fine del GPS. Nel 1971, sempre presso lo SRI, gli autori di STRIPS, con la collaborazione di Raphael, impiegarono il loro programma come sistema di controllo di un robot che si muoveva in un ambiente reale, battezzato « Shakey ». 21 Nel decennio precedente, a Stanford, al MIT, a Edimburgo, si erano sperimentate diverse linee di ricerca sulla manipolazione automatica di semplici blocchi disposti su un tavolo da parte di sistemi muniti di un braccio mobile e di una telecamera che forniva immagini a un calcolatore, i cosiddetti sistemi« mano-occhio» (hand-eye). Non erano mancati anche tentativi di costruire robot mobili. Shakey era però il primo robot che pianificava azioni sulla base di un programma per calcolatore, muovendosi in un ambiente molto delimitato in cui riusciva a evitare ostacoli e a spostare grossi cubi (vedi fig. 6). Le sue prestazioni non furono comunque giudicate tali da indurre il tradizionale sostenitore delle ricerche di IA negli Stati Uniti, la DARPA (De/ense Advanced Research Projects Agency), interessata in quel momento alle applicazioni militari della robotica, a continuare a finanziare il progetto. 22
20 Per una valutazione del PROLOG nell'am· bito degli sviluppi della logica matematica con· temporanea si veda il capitolo di Lolli e, da un altro punto di vista, Cellucci, 1993. 21 Una descrizione del robot Shakey è data
da Raphael, 1976. 22 In Newquist, 1994 sono ricostruiti gli aspetti relativi alle diverse fonti di finanziamento delle ricerche dell'lA.
174
www.scribd.com/Baruhk
L'Intelligenza Artificiale
-
Fig. 6.
Il robot Shakey (da Raphael, 1976).
Un problema che aveva scoraggiato Green, e che il gruppo dello SRI era riuscito a rendere trattabile con STRIPS nell'ambito delle limitate prestazioni di Shakey, è diventato noto come il /rame problem, formulato da McCarthy e Patrick Hayes, allora all'Università di Edimburgo (McCarthy e Hayes, 1969). Il /rame problem si pone con particolare evidenza nella fase di esecuzione di un piano, quando occorre considerare sequenze alternative di azioni, di cui alcune contribuiscono a cambiare il contesto di partenza, mentre altre lo lasciano inalterato. Poiché ci si propone di dare una rappresentazione formale della conoscenza del mondo, e poiché il mondo cambia durante l'esecuzione di un piano, è necessario descrivere sempre, mediante opportuni assiomi, i cosiddetti «assiomi del frame », anche gli aspetti di una situazione che non vengono modificati dall'azione. Procedendo nell'esecuzione del piano, ci si imbatte inevitabilmente in una proliferazione di assiomi che, se può essere con-
175
www.scribd.com/Baruhk
L'Intelligenza Artificiale
trollata nel caso dei soliti problemi giocattolo, risulta sempre incontrollabile nel caso di problemi che riguardano la complessità del mondo reale: un robot che si muove nel mondo fisico affronta un problema di questo tipo, e Shakey poteva risolverlo solo perché si muoveva in un ambiente ben delimitato. Nell'articolo sul/rame problem, tuttavia, McCarthy e Hayes ponevano una netta distinzione tra i problemi sollevati dal controllo delle inferenze, che venivano definiti « euristici », e i problemi relativi alla rappresentazione della conoscenza mediante un linguaggio formale, che venivano definiti «epistemologici». Con STRIPS si era tentato di affrontare i problemi euristici; ma l'interesse di McCarthy si era sempre diretto verso quelli epistemologici, la cui soluzione, o almeno corretta impostazione, sembrava essere per lui preliminare alla soluzione di quelli euristici. In questo senso, per McCarthy l'Advice Taker non era mai stato realizzato, e mai lo sarebbe stato se prima non si fossero chiariti gli aspetti della logica necessari per catturare il carattere non monotòno del ragionamento basato sul buon senso. In questo tipo di ragionamento l'informazione da cui si parte è incompleta oppure la situazione cambia, cosicché l'apprendere nuove informazioni può provocare l'eliminazione di conclusioni precedentemente inferite, cosa che non può verificarsi nella logica tradizionale o monotòna. L'esempio canonico contempla l'inferenza seguente: se x è un uccello (premessa), allora x può volare (conclusione); ma se mi accorgo che x è uno struzzo (ulteriore premessa), devo rivedere la conclusione raggiunta. È nell'approccio epistemologico al ragionamento non monotòno che si colloca la proposta della « circoscrizione » di McCarthy. Essa si presenta come una « regola per le congetture » che, in presenza di informazioni incomplete, come nel caso esemplificato, giustifica il fatto che «si salta» a certe conclusioni. L'idea è di circoscrivere come «anomale» le potenziali eccezioni a una situazione tipica, come quella descritta dall'enunciato « se x è un uccello, allora x può volare ». In questo caso, la proprietà « non volare » risulta anomala rispetto a «essere un uccello», e dunque viene circoscritta, assumendo che abbia l'estensione più piccola possibile relativamente alle informazioni di cui si dispone. L'enunciato dell'esempio si riformula pertanto secondo la regola seguente: se x è un uccello, e x non è un uccello anomalo, allora x può volare. n contesto epistemologico ha fatto da sfondo a tutta una serie di ricerche, definite poi « logiciste », sull'uso della logica come strumento per rappresentare la conoscenza basata sul buon senso. 23 Non è stato chiarito però come le soluzioni proposte potessero fornire suggerimenti per la loro implementazione effettiva, in altri termini per la soluzione dei problemi euristici. Si è assistito così alla proliferazione piuttosto fine a se stessa di ricerche su diverse forme di circoscrizione e regole non monotòne, che ha provocato alla fine anche qualche defezione: è il caso di Drew
23 Si vedano i testi raccolti da Bobrow, 1980, che contiene anche l'articolo di McCarthy sulla circoscrizione. Giunchiglia, 1996 discute l'intero
arco delle ricerche di McCarthy a partire dall'Advice Taker.
www.scribd.com/Baruhk
L'Intelligenza Artificiale
McDermott, che ha abbandonato le ricerche sulla logica non monotòna attraverso, per usare la sua formula, una « critica della ragion pura » logicista (McDermott, 1988). Risultati controversi si sono avuti anche nello studio di altre forme di logica: modale, temporale, /uzzy. Con quest'ultima, introdotta da Lofti Zadeh in un altro contesto nella metà degli anni sessanta, si è pensato di poter catturare il carattere « sfumato » del ragionamento del buon senso: un problema, come si ricorderà, posto all'origine stessa della simulazione dei processi mentali con il calcolatore in termini di logica « grigia ». 24 XII
·
CONTRO
LA
LOGICA
Antitetica a quella logicista è stata la pos1z10ne sempre sostenuta da Minsky. Risale al 1975 la pubblicazione di un suo articolo diventato così popolare da essere noto ormai come il «frame paper» (Minsky, 1975). In esso Minsky tornava a contrapporre il « nuovo paradigma » della rappresentazione della conoscenza al precedente « paradigma della ricerca euristica», proponendo una struttura dati che chiamò «frame». Il nucleo dell'idea non era certo originale. Nozioni del genere, lo ricordava lo stesso Minsky, erano già popolari presso gli psicologi (lo « schema » di Bartlett, per esempio). Inoltre, per certi aspetti il frame si collocava tra gli sviluppi della nozione di rete semantica di Quillian, il più influente dei quali era in quel momento la teoria della «dipendenza concettuale» elaborata da Roger Schank, alla Yale University, con un'impostazione ugualmente antichomskiana e antilogicista. Agli inizi degli anni settanta la teoria di Schank sanciva i limiti insuperabili dei programmi di comprensione del linguaggio naturale del precedente decennio (Schank, 1972). Il modello negativo era per Schank ELIZA, «una collezione di trucchi», egli diceva, per far scimmiottare a un programma la comprensione del significato delle parole. Il suo obiettivo era quello di descrivere, attraverso processi computazionali che fossero psicologicamente plausibili, la comprensione del linguaggio come fenomeno cognitivo. Egli proponeva di individuare un piccolo insieme di nozioni elementari, le «primitive semantiche », con le quali poter costruire la rappresentazione del significato di qualsiasi verbo inglese. La frase veniva analizzata attraverso l'esplicitazione della sua rappresentazione in termini di primitive semantiche. L'assioma centrale della teoria era che due frasi che hanno lo stesso significato, anche se contengono parole diverse o sono diversamente costruite, condividono un'unica rappresentazione in termini di primitive semantiche. Così le frasi «l'uomo ricevette il libro» e « io diedi il libro all'uomo» possono essere rappresentate con una particolare rete in termini di un'u24 Su diversi aspetti collegati a questo argomento si veda Skala e altri, 1984. Recenti applicazioni della logica /uzzy sono illustrate da Ross, 1995
mentre una trattazione di diversi aspetti della logica non monotòna è data da Marek e Truszczynski, 1993·
www.scribd.com/Baruhk
L'Intelligenza Artificiale
a uomo
trans
da
a trans
io
qualcuno
uomo
libro da
Fig. 7.
uomo
libro
io
La primitiva semantica trans di Roger Schank (da Schank, 1972, semplificata).
nica primitiva semantica che definisce il trasferimento di possesso (« trans » nella terminologia di Schank, come si vede nella fig. 7). La teoria di Schank aveva delle implicazioni importanti per la traduzione automatica, come dimostravano i primi programmi dello stesso Schank quali MARGIE e SAM. Le primitive semantiche, ritenute comuni a tutte le lingue naturali, costituivano una sorta di « interlingua »; l'abilità di tradurre frasi non era considerata diversa da quella di comprenderle o parafrasarle: essa si basava sempre sull'esplicitazione di una rappresentazione, in questo caso comune a frasi di due lingue differenti. Svanito il sogno originario della « traduzione completamente automatica di alta qualità», è ·a partire da queste esperienze che si è avuta la ripresa di diversi progetti di traduzione automatica. Fu quando Schank passò dalla costruzione di un programma che capisse (o traducesse) singole frasi a quella di un programma che capisse (o traducesse) interi brani che si trovò a dover fare i conti in modo ineludibile con i soliti problemi del buon senso: primo fra tutti, quello delle conoscenze necessarie per ricavare inferenze sensate dall'unione di diverse frasi, in modo da rendere esplicite credenze e aspettative sollecitate implicitamente dalla lettura del testo. Per affrontare questi problemi Schank, con lo psicologo di Yale Robert Anderson, elaborò in SAM (Script Applier Mechanism) il meccanismo degli script (Schank e Abelson, 1977). Per darne un'idea, si può fare riferimento al /rame paper di Minsky. ll frame è diventato infatti il prototipo delle varie nozioni affini, script inclusi, elaborate in quegli anni o negli anni successivi con l'obiettivo, opposto a quello logicista, di affrontare il problema del buon senso con sistemi di rappresentazione della conoscenza psicologicamente plausibili. 25 Per riprendere un esempio di Minsky, nell'aprire una porta all'interno di una 25 L'interesse per il frame è documentato fin dal suo apparire nei commenti di Fikes, Hewitt,
Schank e altri in Schank e Nash-Webber, 1975.
www.scribd.com/Baruhk
L'Intelligenza Artificiale
casa che non ci è familiare, di solito ci aspettiamo di trovare una stanza con delle caratteristiche più o meno riconoscibili e prevedibili, che rimandano a un insieme di conoscenze organizzate sotto forma di prototipi. Le strutture dati nelle quali riflettere questo modo duttile e insieme molto integrato di usare la conoscenza che è tipico degli esseri umani sono descrivibili per Minsky come «sistemi di frame». Dunque, il «frame stanza» è un contenitore di dati che comprende, elencate in apposite « caselle » o slot, caratteristiche generiche come avere un certo numero di pareti e di finestre, un soffitto e così via. Potranno esserci vari tipi di stanze: da pranzo, da letto e così via, ciascuno dei quali costituisce a sua volta un frame con caratteristiche più specifiche, sempre elencate in apposite caselle. E la camera da pranzo di Giovanni potrà essere ben diversa da quella di Maria in svariati dettagli, ma farà sempre parte di uno stesso tipo del frame stanza, del quale eredita le proprietà, secondo il meccanismo già presente nelle reti semantiche di Quillian. La descrizione di Minsky, per lo più intuitiva e talora oscura, propone metodi che attivano o disattivano frame a diversi livelli di dettaglio, dando luogo alla possibilità di modificare credenze e aspettative frustrate quando le circostanze lo richiedono. Per esempio, il modo di affrontare le eccezioni tipico del ragionamento del buon senso o di quello non monotòno è per Minsky ben rappresentato in un frame con il metodo dei default, i quali stabiliscono generalizzazioni che costituiscono credenze presunte fino a prova (o in difetto di informazione) contraria: un default di stanza può essere il numero «uguale a 4 » delle pareti, ma una stanza con una parete crollata resta sempre un qualche tipo del «frame stanza». In un'appendice al frame paper, Minsky sferrava un duro attacco alle tesi logiciste, che a suo avviso, sviate dai falsi problemi della coerenza e della completezza, non erano in grado di affrontare il carattere « olistico » della conoscenza umana, per usare questa volta il termine impiegato da Daniel Bobrow e Terry Winograd (n. 1946) a proposito del linguaggio per la rappresentazione della conoscenza noto come KRL (Knowledge Representation Language), certo il più influenzato dall'idea dei frame (Bobrow e Winograd, 1977). Sulla ragionevolezza della contrapposizione di Minsky tra rappresentazioni psicologicamente plausibili e rappresentazioni logiciste le valutazioni non sono state concordi. Una risposta dal fronte logicista è venuta da Hayes (1979), che ha tentato con discusso successo di tradurre in termini di logica del primo ordine il formalismo delle reti semantiche e dei frame, per dimostrarne la sostanziale equivalenza.26 Tuttavia, se per alcuni ricercatori i frame non sono altro che insiemi di enunciati dichiarativi, per altri, più plausibilmente, essi, come gli script e altre nozioni analoghe, hanno suggerito un modo per superare la contrapposizione teorizzata da McCarthy tra problemi epistemologici e problemi euristici, e anche per ridimensionare la disputa tra « dichiarativisti » e « proceduralisti », che divise il mondo dell'lA 26 Una ricostruzione dell<~ disputa, insieme a quella di vari sviluppi dei formalismi per la rap-
presentazione della conoscenza non ricordati nel testo, è data da Frixione, 1994.
179
www.scribd.com/Baruhk
L'Intelligenza Artificiale
degli anni settanta (e attualmente più dissolta che risolta). In breve, mentre per la tesi dichiarativista, sostenuta soprattutto dai logicisti, la conoscenza è in primo luogo «sapere che», e dunque consiste nel disporre di un insieme di fatti e di regole per inferirne altri, per la tesi proceduralista la conoscenza è in primo luogo « sapere come», e dunque consiste nel disporre di procedure per l'uso della conoscenza stessa. È possibile dotare i frame di procedure di quest'ultimo tipo, dette «collegamenti procedurali»: per esempio, nel frame stanza, si potrebbe collegare alla casella «numero delle pareti: uguale a 4 » una procedura per riconoscere, quando le circostanze lo richiedessero, la parete di una stanza di forma circolare. Il programma che può essere considerato un esempio delle tesi proceduraliste è SHRDLU, realizzato da Winograd al MIT nel 1971 nell'ambito di un progetto per la comprensione del linguaggio naturale. SHRDLU è un robot simulato in grado di effettuare con grande coerenza azioni in un ambiente anch'esso simulato, in cui blocchi di forme e colori diversi sono disposti su un tavolo: un « micromondo », come venivano chiamati questi insiemi di solidi geometrici sui quali si esercitò molta IA di quegli anni. SHRDLU eseguiva correttamente diversi ordini, dati in ingresso in lingua inglese, di spostare determinati blocchi sul tavolo, e dietro richiesta spiegava, in inglese, perché si comportasse in un modo piuttosto che in un altro. Era anche in grado di disambiguare ordini non chiari, rifacendosi al modo in cui erano disposti i blocchi in un dato momento e chiedendo all'occorrenza conferma della propria interpretazione del contesto. Per fare ciò SHRDLU integrava l'analisi sin tattica e quella semantica degli enunciati con un piccolo corpo di conoscenze sugli oggetti e le proprietà del micromondo. Con un approccio diverso da quello di Schank, diventava possibile trattare quegli stessi aspetti del significato inaccessibili ai programmi degli anni sessanta, che si basavano sull'uso di schemi e di parole chiave. SHRDLU aveva infatti un modello interno del micromondo, e la conoscenza a esso relativa era rappresentata in forma non dichiarativa ma procedurale; a ogni parola del suo vocabolario corrispondeva cioè non una definizione esplicita, ma un breve programma, la cui esecuzione controllava se l'uso della parola nel contesto dato era o meno corretto: in ciò consisteva il significato della parola stessa (Winograd, 1972). La rappresentazione della conoscenza in forma procedurale tipica di SHRDLU era resa possibile dal MICRO-PLANNER, il linguaggio di alto livello impiegato. Si trattava di una sezione del PLANNER, ideato da Cari Hewitt al MIT nel 1971, in cui la parte relativa al controllo (o euristica nel senso di McCarthy) era per così dire integrata a quella relativa alla rappresentazione (o epistemologica). XIII
· LA
VISIONE
ARTIFICIALE
Una critica alla scuola dei micromondi, all'egemonia della rappresentazione della conoscenza, al proceduralismo e alla soluzione di problemi cognitiva, insomma all'intero per quanto discorde fronte della ricerca in IA degli anni settanta, venne da r8o
www.scribd.com/Baruhk
L'Intelligenza Artificiale
David Marr (1945-80). Questi formulò le sue critiche lavorando in un settore a lungo ritenuto secondario in IA: quello della visione artificiale. Ancora oggi le idee di Marr, nonostante se ne constatino diversi limiti, sembrano segnare uno spartiacque nella breve storia della visione artificiale e hanno lasciato tracce importanti nelle più recenti tendenze della ricerca cognitiva. Invitato da Minsky e Papert, Marr arrivò al MIT dall'Inghilterra nel 1973, da neurofisiologo convinto che la visione fosse un argomento troppo complesso per essere affrontato con i metodi della sua sola disciplina. Al MIT vi era una lunga tradizione di ricerca sulla visione, legata ai già ricordati interessi per la robotica, stimolati in particolare da Minsky. Dopo una falsa partenza, in cui la visione artificiale venne considerata un problema secondario e di facile soluzione rispetto alla ricerca dei principi generali dell'intelligenza, sembrava si fosse imboccata la strada giusta. All'inizio degli anni sessanta, Larry Roberts era passato dallo studio del riconoscimento e della semplice classificazione di figure bidimensionali, m genere a forma di lettere, tipico della pattern recognition tradizionale, allo studio della descrizione di scene a tre dimensioni, quelle che deve saper decifrare un robot. Questo comportava i difficili problemi dell'individuazione dei contorni di figure sovrapposte, della distorsione prospettica, della variazione di intensità luminosa, della tessitura. Egli usò solidi geometrici di varia forma, che erano rappresentati nei suoi programmi tramite le coordinate dei loro vertici. Il pionieristico lavoro di Roberts proseguì al MIT con le esplorazioni dei collaudati mondi di blocchi da parte di Adolfo Guzman, David Waltz, Patrick Winston. Marr respinse la strategia dei micromondi, perché non poteva essere estesa ai casi di scene più complesse come quelle della vita reale. Inoltre, giudicò che la maggior parte di queste ricerche condividesse la filosofia dell'lA di quegli anni: per mettere un sistema artificiale in grado di decifrare una scena, si era pensato di munirlo di rappresentazioni e di euristiche, insomma di conoscenza specializzata « dall'alto », che esso avrebbe dovuto usare per riconoscere i componenti della scena stessa. L'idea di Marr, coerente con alcuni risultati della ricerca neurofisiologica, era invece che sono le caratteristiche fisiche degli oggetti, non le conoscenze del sistema sugli oggetti, a guidare « dal basso » la loro identificazione nei primi due stadi della percezione visiva, che costituiscono la «visione primaria». Nel primo stadio il sistema estrae da un oggetto informazioni sulle proprietà dell'immagine bidimensionale, per esempio relative alla variazione di intensità luminosa, attenendone uno «schizzo primario». Nel secondo stadio, sulla base di tale schizzo, il sistema elabora informazioni relative questa volta alla profondità e all'orientamento dell'oggetto, attenendone uno «schizzo a due dimensioni e mezzo». Solo l'elaborazione di quest'ultimo in un « modello a tre dimensioni » dell'oggetto, che costituisce propriamente il terzo stadio o della «visione alta», richiede l'intervento delle conoscenze generali in possesso del sistema, che lo guidano nell'identificare quale tipo di oggetto sia presente nella scena. Tomaso Poggio ha definito «ottica inversa» lo studio di questo pro-
www.scribd.com/Baruhk
L'Intelligenza Artificiale
Esperienza ordinaria
Rappresentazione specifica (può essere programmata)
Psicofisica
Meccanismo nervoso specifico
Meccanismo nervoso specifico
Neurofisiologia e neuroanatomia Fig. 8.
lnterazioni tra rappresentazioni, processi e ricerca neurofisiologica secondo David Marr (da Marr, 1982).
cesso di ricostruzione di immagini tridimensionali a partire da immagini bidimensionali. Nel libro pubblicato postumo, Vision, Marr sostenne che la teoria computazionale della visione è interessata in primo luogo a individuare le restrizioni fisiche e funzionali (che cosa si vuole computare), mentre la scelta del tipo di rappresentazioni e dei particolari algoritmi (dei programmi) per manipolarle interessa un altro livello di analisi (come si effettua la computazione). Questa distinzione corrispondeva secondo Marr a quella di Chomsky tra il livello della competenza e quello
www.scribd.com/Baruhk
L'Intelligenza Artificiale
della prestazione. Il terzo livello previsto da Marr è quello dell'implementazione dell'algoritmo in un particolare hardware. La fig. 8, che riassume le relazioni tra i vari livelli, permette fra l'altro di cogliere il rapporto di interazione esistente secondo Marr tra ricerca neurologica e ricerca in IA (Marr, 1982). I risultati della psicofisiologia e della neurologia possono influire sulla scelta di particolari rappresentazioni e algoritmi, un'interazione che supera la mera estraneità teorizzata comunemente dall'IA (si veda in proposito la fig. 4). Sulla base di questa proposta teorica generale, che andava al di là dei problemi posti dalla visione in senso stretto, Marr criticò i principali protagonisti dell'lA degli anni settanta: Winograd e i proceduralisti perché confondevano i due livelli, quello computazionale e quello algoritmico (per quanto essi lo facessero volutamente, come abbiamo visto); Schank e Minsky perché lavoravano esclusivamente sui meccanismi della rappresentazione, dunque al livello algoritmico, trascurando quello computazionale; Newell e Simon perché, quando si illudevano di simulare il comportamento umano, in realtà lo « mimavano » attraverso procedure ad hoc, come diceva Marr, scegliendo anche essi il livello sbagliato. Molte delle critiche da lui sollevate finivano per toccare i punti nevralgici della ricerca dell'IA di quegli anni, primo tra tutti la difficoltà di rappresentare la conoscenza con strutture come i frame o gli script non appena si usciva dai soliti micromondi: una difficoltà che, andando al di là della disputa tra logicisti e antilogicisti, riproponeva il problema della conoscenza basata sul buon senso, vera bestia nera dell'IA, e che finì per scoraggiare lo stesso Winograd dal proseguire le sue ricerche (Winograd e Flores, 1986). XIV · VECCHI
E
NUOVI
PROGETTI
Le critiche di Marr alla simulazione dei processi cognitivi avevano come oggetto la monumentale summa del 1972, Human problem solving, nella quale Newell e Simon avevano raccolto i risultati della loro lunga ricerca sull'argomento. Da un lato i processi di soluzione di problemi di singoli soggetti umani, desunti dai protocolli verbali, venivano studiati sotto forma di « microteorie » simulative (programmi o schemi di programmi che riproducevano tali processi con i maggiori dettagli possibili), dall'altro si definivano i lineamenti di una teoria generale dell'elaborazione dell'informazione, individuando una nozione di «sistema di elaborazione dell'informazione» (In/ormation Processing System, o IPS) come «genere» di cui uomo e calcolatore sono due « specie » distinte. Infine; si sviluppava una particolare versione dell'idea di «regola di produzione» che, nella forma generale «SE condizione, ALLORA azione», specifica la condizione in presenza della quale hanno luogo una o più azioni (Newell e Simon, 1972). Incorporate nei cosiddetti «sistemi di produzione», regole di questo tipo sono state ampiamente sperimentate per rappresentare la conoscenza nei sistemi esperti, a partire almeno da MYCIN, un sistema esperto nella diagnosi delle malattie del sangue.
www.scribd.com/Baruhk
L'Intelligenza Artificiale
Nel 1975 Newell e Simon, nell'intervento in occasione del premio Turing, formularono un'ipotesi che può essere vista come il perfezionamento di quella dello IPS: l'« ipotesi del sistema fisico di simboli», secondo la quale condizione necessaria e sufficiente per attribuire intelligenza a un sistema, naturale o artificiale, è la sua capacità di trasformare espressioni simboliche in altre mediante regole (Newell e Simon, 1976). Tuttavia, gli interessi di Newell e di Simon andavano già da tempo divergendo. Newell continuò il lavoro sui sistemi di produzione, convincendosi che essi potevano suggerire un'architettura generale dell'intelligenza. Una conferma a questa supposizione gli parve di trovarla nel 1984, quando con John Laird e Paul Rosenbloom cominciò l'implementazione di SOAR, pensato come un'architettura unica per tutti i tipi di compito, che erano formulati sempre come ricerca nello spazio del problema. SOAR procede selezionando e applicando gli opportuni operatori che trasformano lo stato iniziale in una successione di stati che portano a quello finale (l'obiettivo o la soluzione del problema). Quando nel corso di questo processo si incorre in un'« impasse», dovuta per esempio alla difficoltà di decidere quale operatore applicare, SOAR genera un sottoobiettivo, la cui soluzione lo libera da tale impasse. Questa soluzione viene aggiunta sotto forma di nuova regola alla lista delle regole e costituisce un nuovo «pezzo» (chunk) di conoscenza, che in futuro potrà essere usato ove si riproduca quella stessa impasse. Il chunking è dunque un meccanismo di apprendimento che genera nuove regole, anzi l'unico meccanismo di apprendimento previsto dall'architettura (Newell, 1990). Il lavoro su SOAR, che riprendeva, e per certi aspetti radicalizzava, molti temi nei quali affondavano le radici dell'lA, assorbì Newell fino alla sua scomparsa, avvenuta nel 1992, ed è tuttora portato avanti dal suo gruppo, anche se solleva molte riserve nel mondo dell'lA soprattutto per quanto riguarda l'utilità di assumere un'architettura unificata per l'intera attività cognitiva. Per Simon le questioni relative all'architettura cognitiva non hanno avuto un interesse preminente. Egli continuò con diversi collaboratori la sperimentazione sulla simulazione, in particolare sui protocolli verbali. Nello stesso tempo approfondì l'analisi dei processi della creatività scientifica, da lui già definita come una forma, per quanto complessa, di attività di soluzione di problemi. Con altri ricercatori, come Gary Bradhaw e Patrik Langley, collaborò alla costruzione di vari programmi che « riscoprivano » concetti e leggi di diverse discipline scientifiche (Langley e altri, 1987). Si tratta per lo più di programmi che usano euristiche generali o deboli e basi di conoscenza ridotte. BACON rappresenta il caso estremo, molto vicino al GPS: « riscopre » le leggi di Keplero attraverso metodi generali che individuano regolarità presenti nei dati di cui dispone, senza fare riferimento né al loro significato né ad alcuna assunzione sulla loro struttura. Se consideriamo DENDRAL un programma per la scoperta, dobbiamo collocarlo all'estremo opposto. Un programma che in un certo senso occupa una posizione intermedia, seb-
www.scribd.com/Baruhk
L'Intelligenza Artificiale
bene oscillante, tra BACON e DENDRAL è AM (Automated Mathematician), sviluppato nell'area della scoperta matematica da Douglas Lenat verso la metà degli anni settanta a Stanford. Per la verità, l'ispirazione originaria di Lenat sembrava agli antipodi dei sistemi esperti. Lenat si proponeva infatti di «tagliare il cordone ombelicale» che lega il programma all'esperto umano (il problema dell'ingegneria della conoscenza), per vedere se, o fino a che punto, il programma era in grado di apprendere incrementando gradualmente le conoscenze a partire da una base di conoscenza generale. Tale base di conoscenza era piuttosto ricca, e, senza essere paragonabile a quella di un tipico sistema esperto, era tuttavia ben lontana dall'austerità di BACON. L'obiettivo, sottolineava Lenat, era di approssimarsi «all'ideale dell'interscambio tra generalità e potenza»: quasi un richiamo, questa volta, alla filosofia originaria degli autori di DENDRAL. Euristiche di questo tipo rendevano il programma capace di « riscoprire » numerosi concetti matematici, arrivando a formulare la congettura di Goldbach, che esso introduceva dopo aver « riscoperto » i numeri primi (Lenat, 1979). Lenat si accorse che una delle ragioni fondamentali che impediva ad AM di compiere ulteriori progressi consisteva nella sua incapacità di introdurre, o « apprendere», nuove euristiche. Trasferitosi alla Carnegie-Mellon, egli si dedicò a un nuovo programma, EURISKO, dotato di regole che lo mettessero in grado di introdurre non solo nuovi concetti, nello stile di AM, ma anche nuove regole euristiche, o « metaeuristiche » (Lenat, 1983). L'idea di un metalivello in cui rappresentare le regole che il programma può usare per decidere quali regole del livello oggetto applicare, o in quale ordine, può essere vista come l'evoluzione dell'idea di controllo attraverso le euristiche della prima IA. Questa opportunità è stata sperimentata in sistemi come TEIRESIAS e SOAR. In altri casi, come nel sistema FOL di Richard Weyhrauch, la conoscenza metateorica viene trasferita al livello della teoria oggetto mediante « principi di riflessione», per rendere più efficiente la generazione delle dimostrazioni. 27 Quando si parla di riflessione e di autoriferimento, inevitabilmente si è portati a pensare alla coscienza, un argomento sul quale, a parte alcune speculazioni su possibili architetture riflessive, l'IA non ha ancora prodotto risultati apprezzabili. 28 Nemmeno l'approccio di EURISKO ebbe il successo sperato. Lenat discusse in modo molto spregiudicato i limiti di AM e di EURISKO trovandosi alla fine d'accordo con le conclusioni critiche alle quali era arrivato lo stesso Feigenbaum a proposito dei sistemi esperti: essi mancano della conoscenza generale che caratterizza il buon senso, cosicché le loro prestazioni, basate su conoscenze specialistiche, degradano rapidamente. Partendo da questa constatazione, Lenat avviò nel 1984 il programma CYC (enCYClopedia), un progetto a lungo termine tuttora in fase di attuazione, talmente ambizioso da lasciare scettici molti sulla sua stessa plausibilità. CYC dovrebbe essere fornito di una base di conoscenza desunta da un certo numero di voci di 27 Maes e Nardi, 1988 costituisce un'eccellente introduzione a questi argomenti.
28 L'argomento è discusso in Trautteur, 1994.
www.scribd.com/Baruhk
L'Intelligenza Artificiale
un'enciclopedia e, inoltre, delle conoscenze generali del buon senso presupposte nella comprensione di tali voci. L'obiettivo (quasi la realizzazione del sogno di McCarthy) sarebbe quello di dare al programma tutta la conoscenza del buon senso, rappresentata in forma esplicita, necessaria per la comprensione di qualsiasi altra voce dell'enciclopedia (Lenat e Feigenbaum, 1991). Inizialmente, a CYC si interessò la MCTC (Microelectronics and Computer Technology Corporation), un consorzio nazionale che avrebbe dovuto preparare la risposta americana al progetto giapponese dei calcolatori « superintelligenti » della quinta generazione programmati con il PROLOG; avviato nel 1982 con uno stanziamento di 855 milioni di dollari in dieci anni, tale progetto andò presto incontro a un drastico ridimensionamento. Successivamente CYC, che rappresenta in fondo la speranza in una generazione di sistemi esperti di concezione interamente nuova, suscitò l'interesse di diverse imprese commerciali, che stanziarono un finanziamento di 25 milioni di dollari. In SOAR l'apprendimento ha un ruolo centrale, AM ed EURISKO sono programmi che apprendono attraverso la scoperta. Sono solo alcuni esempi di come nei primi anni ottanta l'apprendimento costituisse un tema di primo piano nella ricerca di IA, dopo un lungo periodo in cui non era stato oggetto di esplorazioni sistematiche. La nuova tendenza è testimoniata dalla raccolta Machine learning (Michalski, Carbonell e Mitchell, 1983), diventata poi una pubblicazione che periodicamente documenta la varietà delle più aggiornate proposte sull'apprendimento automatico. ARCHITETTURE A CONFRONTO: SCIENZA COGNITIVA E NEOCONNESSIONISMO XV
·
L'ipotesi del sistema fisico di simboli non caratterizza in modo omogeneo l'impresa dell'lA. Considerata di volta in volta, dentro e fuori il mondo dell'lA, un eccesso radicale, un atto di fede o un'utopia, essa ha comunque sintetizzato le aspirazioni originarie dell'lA come scienza della mente, e ha influito, magari in forme variamente indebolite, sull'evoluzione di una nuova disciplina, la scienza cognitiva. Questa ebbe la sua consacrazione alla Conferenza di San Diego, organizzata nel 1979 dalla Cognitive Science Society, che da due anni pubblicava già la rivista ufficiale della società e aveva avuto generosi finanziamenti dalla Sloan Foundation. Alla Conferenza parteciparono psicologi, linguisti e filosofi, oltre a Minsky, Newell, Schank, Simon, Winograd: nella scienza cognitiva confluivano infatti molte delle ambizioni della In/ormation Processing Psychology e dell'lA come scienza della mente, al punto che Simon, intervenendo alla Conferenza, arrivava a retrodatare al 1956 la nascita della scienza cognitiva. La nuova disciplina doveva ritagliarsi uno spazio autonomo nei suoi rapporti con l'IA: l'impresa fu tentata agli inizi degli anni ottanta da Zenon Pylyshyn e Philip Johnson-Laird. Entrambi sostenevano l'idea generale della cognizione come computazione di strutture di simboli e rifiutavano la metodologia del test di Turing, che r86
www.scribd.com/Baruhk
L'Intelligenza Artificiale
si limita a considerare la prestazione senza tener conto dei processi cognitivi. Inoltre, entrambi si ponevano il problema di quali restrizioni imporre all'architettura cognitiva o ai processi cognitivi stessi: per esempio, i limiti di memoria, gli errori nella soluzione di problemi, i tempi di prestazione. Anche se la simulazione del comportamento era giudicata per lo più pura « mimica » nel senso di Marr, si avvertiva in queste tesi l'eredità della In/ormation Processing Psychology dei vecchi tempi. Per il resto, l'approccio di Pylyshyn era molto diverso da quello di Johnson-Laird. Pylyshyn tracciava una distinzione tra i processi « cognitivamente penetrabili » e quelli« cognitivamente non penetrabili »,che riguardano l'architettura cognitiva (Pylyshyn, 1984). Pur tra qualche incertezza, Pylyshyn sembrava muoversi verso le posizioni di Marr e di Chomsky, già portate alle estreme conseguenze da Jerry Fodor (n. 1935). Questi aveva proposto un'architettura funzionale della mente in cui si distinguono i sistemi deputati alla percezione e al linguaggio, descritti come moduli non influenzati da credenze e conoscenze, dai sistemi « centrali », responsabili dei processi cognitivi superiori, per esempio della soluzione di problemi. La scienza cognitiva, come scienza computazionale della mente, può occuparsi solo dei primi, mentre quelli centrali, risultando cognitivamente penetrabili, cioè influenzati da credenze e conoscenze, le restano inaccessibili: si spiegano così i fallimenti dell'rA che si è illusa di riuscire a rappresentare i processi cognitivi superiori con strutture dati come i frame o gli script (Fodor, 1983). All'opposto, Johnson-Laird elaborava la nozione di una nuova struttura dati, in cui rappresentare in forma analogica le conoscenze e le aspettative, anche soggettive, degli esseri umani: quella dei « modelli mentali », che egli aveva cominciato a sperimentare nel ragionamento sillogistico. Inoltre, estendeva i suoi interessi ad argomenti verso i quali Pylyshyn e molta scienza cognitiva dell'epoca restavano sordi: quello del ruolo della componente emotiva nella cognizione, o quello della coscienza (Johnson-Laird, 1983). Ma già Pylyshyn si trovava a dover contestare nel suo libro la validità di « nuove architetture della cognizione», alternative a quelle ispirate all'ipotesi dell'elaborazione simbolica, proposte dal cosiddetto «nuovo connessionismo». Pylyshyn si riferiva alla raccolta pubblicata nel 1981 da James Anderson e Geoffrey Hinton, Paraile! models o/ associative memory, che preannunciava la ripresa in grande stile delle reti neurali. Anderson, e con lui Teuvo Kohonen, Stephen Grossberg e altri già ricordati, non avevano interrotto la ricerca sulle reti neurali. Inoltre, più di una proposta formulata dall'lA, per esempio il meccanismo di « attivazione diffusa » della memoria semantica di Quillian, aveva ispirato modelli dotati di un certo parallelismo. Ma almeno due eventi dovevano avviare una vera e propria rivincita di Rosenblatt. Nel 1982 John Hopfield mostrava come le reti neurali potessero funzionare come memorie associative (Hopfield, 1982). Nel 1985 David Rumelhart e i suoi collaboratori pubblicavano una serie di ricerche ispirate a un approccio di «elaborazione distribuita in parallelo» (Parallel Dz'stributed Processing, o PDP) dell'informazione che mostravano come un algoritmo di apprendimento per correzione dell' er-
www.scribd.com/Baruhk
L'Intelligenza Artificiale
rore, ormai noto come « retropropagazione » (backpropagation), permetteva di superare le principali limitazioni delle reti neurali mostrate da Minsky e Papert nel libro del 1968 (Rumelhart e altri, 1986). Queste si dimostravano effettivamente tali solo per le reti a uno strato interno, come il già menzionato Perceptron, non per le reti non lineari a più strati. Il connessionismo del gruppo PDP e le nuove reti neurali si richiamavano idealmente al connessionismo di Hebb, del quale tornava in primo piano la teoria dell'apprendimento come aumento della forza delle connessioni tra neuroni ripetutamente attivati. Alla metà degli anni ottanta risale anche la realizzazione di grandi calcolatori ad architettura parallela, con l'obiettivo di superare i limiti dell'elaborazione seriale dell'informazione tipica dei calcolatori con architettura alla von Neumann: la connection machine di David Hillis ne è l'esempio più noto. Calcolatori di questo tipo, come quelli del progetto APE coordinato dal fisico Nicola Cabibbo, hanno diverse applicazioni nel mondo della ricerca. XVI
· L'INTELLIGENZA
ARTIFICIALE E
GLI
ENIGMI
DELLA
MENTE
Le nuove reti neurali di Hopfield, diventate oggetto di studio dei fisici, si sono ritrovate nella famiglia dei sistemi dinamici complessi, primi tra tutti i vetri di spin, uno degli argomenti di punta della fisica degli anni ottanta. 29 Inoltre, esse hanno conosciuto diverse applicazioni in problemi di ottimizzazione nella teoria della complessità computazionale. Nel clima di una rinnovata attenzione verso le neuroscienze, il libro del gruppo PDP suscitò invece reazioni di euforia soprattutto nel mondo degli psicologi cognitivi e dei filosofi, provocando tra i primi diverse conversioni al connessionismo e tra i secondi una ripresa del materialismo riduzionista, tradizionale avversario filosofico del funzionalismo. I filosofi sostenitori del materialismo riduzionista, come Herbert Feigl, J.C. Smart, D.M. Armstrong, avevano proposto tra gli anni cinquanta e sessanta la teoria dell'identità mente-cervello, in base alla quale uno stato mentale deve essere identificato con lo stato cerebrale corrispondente. Critiche a questa teoria furono sollevate soprattutto dopo la pubblicazione dell'influente articolo di Putnam Minds and machines (Putnam, 1960). Il fatto che gli stati interni di una macchina di Turing potessero essere implementati su hardware diversi aveva suggerito a Putnam che anche gli stati mentali potevano essere realizzati in sistemi fisici diversi, non solo organici, come il cervello, ma anche inorganici, come un dato hardware di un calcolatore. Pertanto non aveva senso identificare stati mentali con stati cerebrali, e i predicati psicologici potevano essere compresi rifacendosi non alla loro realizzazione o instanziazione fisica, che poteva essere di volta in volta differente, ma alla loro organizzazione funzionale comune, cioè alle loro interazioni reciproche. Era questa, 29 Si veda per esempio Weisbuch, 1991 e anche Serra e Zanarini, 1994.
188
www.scribd.com/Baruhk
L'Intelligenza Artificiale
in sintesi, l'ipotesi del funzionalismo ispirato alla macchina di Turing, coerente con l'idea, affermatasi con gli sviluppi della scienza dei calcolatori e della prima IA, secondo cui i processi dell'intelligenza possono essere studiati al livello del programma (della manipolazione di simboli), astraendo dalla natura specifica della struttura osservabile al livello fisico. Tuttavia, il funzionalismo, che è diventato la filosofia popolare tra i ricercatori di IA e poi di scienza cognitiva, ha avuto una sua evoluzione essenzialmente come funzionalismo computazionale. 30 Un contributo importante in questa direzione è stato quello di Newell (1980; 1982). Riprendendo l'ipotesi del sistema fisico di simboli, egli introdusse un terzo livello di descrizione di un sistema artificiale, il livello della conoscenza, che collocò sopra i due tradizionali livelli teorizzati dall'lA, quello fisico (o dello hardware) e quello del programma (o dei simboli). Il riconoscimento del livello della conoscenza nella gerarchia dei livelli di descrizione di un sistema costituiva l'esplicitazione di una pratica comune tra i ricercatori di IA: quella di descrivere un sistema artificiale come un agente razionale, che elabora conoscenze per pianificare azioni in vista del raggiungimento di certi scopi o obiettivi. 31 Come si è visto, era stata la cibernetica a introdurre il linguaggio psicologico nella descrizione del comportamento di certi artefatti. Daniel Dennett (n. 1942) aveva ripreso questa idea già sviluppata dalla filosofia della mente di matrice cibernetica, in particolare da MacKay, per dare una sua soluzione al problema dell'intenzionalità (Dennett, 1971) .32 Con la proposta dell'« atteggiamento intenzionale», egli riteneva di poter superare la tesi del filosofo Franz Brentano sull'incompatibilità tra spiegazione meccanicista, che riguarda il mondo fisico, e spiegazione intenzionale, che riguarda esclusivamente la sfera del mentale. L'atteggiamento intenzionale, in altri termini la scelta di un osservatore esterno di descrivere un sistema come intenzionale mediante il linguaggio psicologico o « mentalistico », è per Dennett legittimo, anzi indispensabile, per controllare e prevedere il comportamento di sistemi non solo naturali od organici, come gli esseri umani o gli animali, ma anche fisici o artificiali, come un calcolatore. Per esempio, quando si gioca a scacchi con un calcolatore, è scontato assumere l'atteggiamento intenzionale per prevedere le sue mosse, e infatti si dice che esso ha un certo «piano», o che ha lo «scopo» o l'« intenzione» di battere l'avversario e così via. La proposta di Dennett divenne molto popolare tra i ricercatori di IA e di scienza cognitiva. Lo stesso Newell (1982) ritenne che il livello della conoscenza corrispondesse al livello dell'atteggiamento intenzionale di Dennett: in fondo, l'una e l'altra nozione dovevano molto alla descrizione del comportamento razionale data 30 Discutendo le posizioni classiche della filosofia della mente Bechtel, 1988 propone una tassonomia delle diverse forme di funzionalismo. 31 L'individuazione di questo livello non ha niente a che vedere con le distorsioni provocate
dall'abuso di tale pratica denunciate da McDermott, 1976. 32 Le origini del dibattito sull'intenzionalità nella filosofia della mente ispirata alla cibernetica e alla prima IA sono ricostruite in Cordeschi, 1994.
www.scribd.com/Baruhk
L'Intelligenza Artificiale
da Simon molti anni prima. Newell, tuttavia, sempre rifacendosi al sistema fisico di simboli, elaborò una sua proposta sul significato e sull'intenzionalità, che si presentava come una sistemazione della concezione del significato prevalente in IA. Dal suo punto di vista, la manipolazione sintattica (mediante regole) delle espressioni simboliche da parte di un sistema artificiale poteva essere considerata semantica in quanto è rappresentazionale, vale a dire che le espressioni si riferiscono a eventi del mondo perché, sulla base di regole, vengono trasformate nello stesso modo in cui si trasformano gli eventi del mondo (Newell, 1980; 1990). Assumendo questa ipotesi come base di quella che Newell definiva la «concezione computazionale della mente», la stessa mente era considerata, per riprendere un'espressione di Dennett, un « dispositivo sin tattico » che imita o riproduce il funzionamento di un « dispositivo semantico ». Nel libro già menzionato Computation and cognition del 1984, Pylyshyn presentava il livello della conoscenza di Newell proprio come un livello semantico, quello dell'attribuzione di significato alle strutture di simboli, le quali costituiscono il livello sintattico, intermedio tra quello semantico e quello della realizzazione fisica. Si potrebbe discutere se le tre nozioni di Dennett, Newell e Pylyshyn siano effettivamente equivalenti sul piano esplicativo. Fu comunque Pylyshyn, seguendo Fodor, a riprendere il funzionalismo computazionale con il proposito di spiegare alcuni enigmi del problema mente-cervello dibattuti dal comportamentismo e dal materialismo riduzionista. 33 Per esempio, come può uno «scopo» o una « intenzione », appartenenti secondo Brentano alla sfera del mentale, essere causa di un evento fisico, come un'azione (o una successione di azioni) diretta a conseguirli? Se si pensa alla mente come a un « dispositivo sin tattico », il calcolatore suggerisce come ciò sia possibile: in questo caso, è la forma fisica delle rappresentazioni, in quanto strutture di simboli fisicamente realizzate o instanziate, non il significato o il contenuto intenzionale delle rappresentazioni stesse, a svolgere il ruolo causale nel comportamento. Il contenuto di una rappresentazione potrebbe anche non esistere (l'obiettivo della ricerca del Santo Graal, per esempio), e ciononostante la forma o struttura della rappresentazione potrebbe svolgere il ruolo causale richiesto. Nel caso della mente, le strutture di simboli devono ipotizzarsi instanziate nel cervello. L'accusa di dualismo (di separare il mentale dal fisico) mossa qualche volta a questo tipo di funzionalismo è ingiustificata, dal momento che esso vuole tentare una soluzione materialista, ma non riduzionista, del ruolo causale degli stati mentali. Piuttosto, senza essere dualista, il funzionalismo computazionale della maggior 33 In effetti Pylyshyn, 1984 tentava la difficile impresa di conciliare le idee di Fodor con quelle di Newell. Rispetto all'atteggiamento intenzionale di Dennett, che è una pura e semplice questione di scelta da parte dell'osservatore del sistema (naturale o artificiale), l'attribuzione di intenzionalità al livello semantico di Pylyshyn è giustificata dalla
capacità propria del sistema stesso di elaborare strutture di simboli, una capacità che si ritiene tipica delle menti e dei programmi. Questo sembra escludere che semplici artefatti come quelli della tradizione cibernetica richiedano necessariamente una descrizione intenzionale.
www.scribd.com/Baruhk
L'Intelligenza Artificiale
parte dell'rA non considera cruciale la natura biologica della struttura fisica nella quale si realizzano gli stati mentali. È questa tesi, insieme a quella del ruolo causale dei simboli per l'intenzionalità, a essere stata oggetto di critiche diverse. John Searle (n. 1932) ha sostenuto che il ruolo causale delle rappresentazioni simboliche è un puro artifìcio, dal momento che l'intenzionalità manifestata da un programma è «derivata» dal cervello del suo artefice (del programmatore), l'unico in grado di avere intenzionalità «originaria ». 34 Un'altra critica alla filosofia dell'IA e della scienza cognitiva, ormai definite «classiche» o «simboliche», è venuta dalla ripresa del materialismo riduzionista. Come si è accennato, essa si è verificata in sintonia con il rinnovato interesse per le neuroscienze sollecitato dal connessionismo. Neurophzlosophy, il libro di Patricia Smith Churchland (n. 1943), si proponeva di confutare la versione del funzionalismo computazionale ritenuta più radicale, quella di Pylyshyn (Churchland, 1986). A giudizio della Churchland, la tripartizione dei livelli di spiegazione (semantico o della conoscenza, simbolico e fisico) è una semplificazione inaccettabile, basata su una « distinzione monolitica » tra struttura e funzione: in realtà, il loro numero non può essere astrattamente delimitato in anticipo, data la molteplicità dei livelli individuati dalla ricerca effettiva delle neuroscienze. Inoltre, la comprensione della struttura biologica (del cervello) può suggerire, e di fatto suggerisce, teorie dell'organizzazione funzionale. Infine, è solo un dogma che le rappresentazioni debbano avere una forma simbolica per poter ricoprire l'asserito ruolo causale nell'intenzionalità.35 Pylyshyn, d'altra parte, al Convegno della Cognitive Science Society del 1984 si era trovato a scontrarsi con Hinton e Rumelhart nel corso di un Simposio dedicato a Connessionismo o regole, che sancì la spaccatura tra i sostenitori dell'approccio connessionista e di quello simbolico nell'ambito della scienza cognitiva. Con Fodor, Pylyshyn firmò poi un lungo saggio in cui si argomentava che le reti neurali non sono in grado di riprodurre le caratteristiche fondamentali dei processi inferenziali e vanno viste semplicemente come una possibile architettura astratta sulla quale poter implementare i sistemi simbolici ad architettura classica o alla von Neumann (Fodor e Pylyshyn, 1988). Questa tesi, sulla quale non c'è stato ricercatore che non abbia trovato il modo di pronunciarsi, è tutt'ora un punto di riferimento obbligato delle principali critiche al connessionismo. 36
34 Questa tesi (Searle, 1980) è stata tra le più discusse in lA come in scienza cognitiva. fl filosofo John Lucas aveva comunque sollevato già negli anni sessanta obiezioni al meccanicismo ispirato alla macchina di Turing, le quali possono essere ricondotte alla tesi dell'incapacità delle macchine di manipolare la semantica e di manifestare «vera» (od «originaria>>) intenzionalità. La tesi di Lucas (ispirata
ai teoremi sull'incompletezza di Godei) è stata ripresa dal fisico Penrose (in Penrose, 1989). 35 Si veda Churchland e Sejnowski, 1992 per gli sviluppi di queste tesi. 36 Una rassegna parziale della disputa è fornita in Bechtel e Abrahamsen, 1991, che introduce anche i principali argomenti della filosofia della mente di ispirazione connessionista.
www.scribd.com/Baruhk
L'Intelligenza Artificiale XVII
· ORIENTAMENTI
DALLA
FINE
DEGLI
DELLA ANNI
RICERCA
OTTANTA
Alla fine degli anni ottanta, il mondo della ricerca sulla mente e sulle macchine si presentava quanto mai diviso. Per darne un'idea, si sceglieranno alcuni eventi che hanno caratterizzato lo scorcio di quel decennio e permettono di rendersi conto dei principali orientamenti della ricerca degli anni novanta. 37 Nel 1987, al Workshop sui fondamenti della IA svoltosi presso il MIT, si confrontavano le tendenze più influenti dell'lA. La rivista « Artificial Intelligence » ne dava conto nel 1991, e David Kirsh riassumeva efficacemente in cinque punti le assunzioni generali sulle quali si erano confrontati e divisi i partecipanti al Workshop. Essi erano: I) la centralità delle regole e della rappresentazione della conoscenza; 2) il disembodiment, ovvero lo studio della cognizione astraendo dalla percezione e dal controllo motorio; 3) il carattere linguistico (in primo luogo logicomatematico) della descrizione dell'attività cognitiva; 4) lo studio dell'attività cognitiva astraendo dall'apprendimento, dallo sviluppo cognitivo e dai cambiamenti evolutivi; s) l'unicità dell'architettura per l'intera cognizione. Secondo Kirsh (1991), i logicisti interessati alle teorie formali del buon senso e delle credenze accettano le prime quattro assunzioni, che invece sono respinte dai connessionisti; gli uni e gli altri restano comunque neutrali sulla quinta assunzione. L'unicità dell'architettura è portata in primo piano dal gruppo di SOAR, insieme alla centralità dell'apprendimento nello studio della cognizione. Questi due punti non costituiscono invece le premesse del progetto CYC. Altri programmi di ricerca possono ritrovarsi in qualcuna o nessuna delle cinque assunzioni: per esempio, la cosiddetta « IA distribuita », riproposta al Workshop da Hewitt e Les Gasser da punti di vista diversi, o la robotica di Rodney Brooks. L'IA distribuita, nata ufficialmente al Convegno americano a essa dedicato nel 1980, ha alle spalle l'evoluzione dei sistemi a « blackboard », una base di dati condivisa da diversi moduli cooperanti deputati a conoscenze specialistiche. HERSAY n, progettato negli anni settanta alla Carnegie-Mellon come sistema per il riconoscimento del parlato, è considerato tutt'ora uno degli esempi meglio riusciti di questo genere di architetture, sperimentate anche in alcuni sistemi esperti. L'IA distribuita ha insistito sull'aspetto cooperativo della gestione della conoscenza, ma anche sulla dimensione sociale della conoscenza e dell'azione. Al Workshop, Gasser discuteva l'effettiva novità della proposta di Hewitt, il quale dava una formulazione dell'lA distribuita che si rifaceva ai suoi « sistemi aperti », così detti perché al fine di tener testa alle informazioni parziali di cui dispongono devono cooperare collettivamente anche attraverso l'applicazione di diversi criteri e strategie di soluzione di problemi.
37 Una trattazione esauriente, attenta agli orientamenti recenti della ricerca sia teorica che
applicativa dell'lA, è data da Russell e Norvig, 1995·
www.scribd.com/Baruhk
L'Intelligenza Artificiale
Brooks riassumeva invece con lo slogan « conoscenza senza rappresentazione» la filosofia implicita nei robot da lui costruiti al MIT. Si tratta di «creature», come egli le chiamava, dal comportamento per lo più simile a quello di insetti: si muovono nei luoghi più diversi ed evitano ostacoli, integrando percezione e azione grazie all'« architettura della sussunzione » che essi implementano, nella quale un comportamento complesso è scomposto in comportamenti più semplici che si svolgono in parallelo. Quello di Brooks era l'approccio più radicale allo studio dell'intelligenza: esso respingeva tutte le cinque assunzioni elencate da Kirsh, 38 il quale a sua volta sollevava a Brooks un problema che si pone quasi spontaneamente: quanta (che tipo di) intelligenza è possibile riprodurre senza rappresentazioni simboliche? Il Workshop del MIT presentava dunque efficacemente le diverse anime dell'rA, anche se non tutte vi erano ugualmente rappresentate: basti pensare alla posizione antiformalista di Schank o alla «società della mente» di Minsky (1987), che concepisce l'intelligenza come emergente dalla cooperazione di agenti preposti a compiti elementari, o ancora alla stessa ricerca sulla robotica, che non si identifica tutta nella proposta di Brooks. Altre esperienze della robotica riguardano sistemi di rappresentazione della conoscenza cosiddetti «ibridi», secondo un'espressione già usata da Simon in an:ni lontani. In questo caso, rappresentazioni analogiche del genere dei modelli mentali di Johnson-Laird suppliscono a certe rigidità delle rappresentazioni simboliche nei processi di pianificazione di robot che si muovono in ambienti simulati.39 Se l'rA simbolica appariva allo scorcio degli anni ottanta divisa su quasi tutti i problemi fondamentali, i sostenitori del paradigma connessionista si trovavano a fare i conti con i postumi della consueta ebbrezza che ha puntualmente accompagnato le « svolte » nella storia della costruzione di macchine intelligenti. Come ai tempi del Perceptron, i modelli connessionisti continuavano a dare il meglio di sé nella riproduzione di attività elementari, come pattern recognition, classificazione, apprendimento per associazione, e poco o nulla di importante realizzavano nella riproduzione di attività complesse, come il ragionamento basato su inferenze. Nel 1989 si svolse presso la New Mexico State University un Workshop sui modelli connessionisti di alto livello, il primo serio tentativo di fare i conti con i limiti del connessionismo, di cui venivano ridiscussi i fondamenti attraverso un confronto finalmente non polemico con il cosiddetto paradigma simbolico dell'rA. Un possibile vademe-
38 Questa posizione sarebbe condivisa anche dall'immunologo Gerald Edelman, ideatore di automi che incorporano la sua teoria del << darwinismo neurale >>. Su Edelman si vedano il capitolo di G. Corbellini sul sistema immunitario e quello di A. Oliverio sulle neuroscienze. 39 I recenti sistemi « ibtidi >> di rappresenta-
zione della conoscenza sono descritti in Nebel, 1990. Quanto alla varietà delle proposte in robotica, una buona testimonianza è data dalle Robot Exibition and Competition, promosse dalla AAAI (American Association /or Arti/icial Intelligence) a partire dal 199z, raccolte in Dean e Bonasso, 1993.
193
www.scribd.com/Baruhk
L'Intelligenza Artificiale
Simbolico
Subsimbolico/Distribuito
integrazione della conoscenza variazioni graduali rappresentazioni intermedie memoria ricostruttiva autoorganizzazione reperimento associativo robustezza inferenza associativa apprendimento adattativo variabili e valori schemi e ruoli struttura ricorsiva capacità generativa infinita default ed ereditarietà instanziazioni (tipi-occorrenze) riferimento/puntatori gestione della memoria comunicazione tra compiti metaragionamento apprendimento su spiegazione controllo sequenziale complesso
+ + + + + + + + + + + + + + + + +
+ + + + Fig. 9.
Capacità
Successi e insuccessi degli approcci « simbolico » e « subsimbolico » connessionista nella valutazione di Michael Dyer (da Barnden e Pollack, 1991).
cum dei pregi e dei limiti dei due approcci venne stilato da Michael Dyer (nella fig. 9 essi corrispondono, rispettivamente, ai « + » e ai « - »). Le proposte di integrazione reciproca, in certi casi sotto forma di sistemi connessionistico-simbolici detti « ibridi », furono in quell'occasione le più diverse e tendevano ad accentuare il ruolo giocato dall'uno o dall'altro dei due approcci (Barnden e Pollack, 1991). Tali proposte hanno avuto l'ambizione di suggerire nuovi modelli cognitivi e, in tempi più recenti, di affrontare il problema del symbol grounding, come lo psicologo Stevan Harnad ha definito la questione di come « ancorare » i simboli agli aspetti della percezione del mondo (Harnad, 1990). Esse vanno dunque distinte da altre proposte di sistemi pure classificabili come ibridi, ma con obiettivi di tipo più applicativo: in questi casi si associa una rete neurale a un sistema esperto per ridurre la più o meno rapida degradazione delle prestazioni di quest'ultimo in presenza di dati incompleti.40 Una nuova disciplina ha suscitato negli ultimi anni tra i critici dell'lA simbolica la speranza di riuscire a indagare su aspetti trascurati anche dal connessioni-
40 Gutknecht e Pfeifer, 1990.
194
www.scribd.com/Baruhk
L'Intelligenza Artificiale
smo, come ad esempio lo sviluppo e l'evoluzione biologica e più in generale l'interazione dinamica tra il sistema e l'ambiente. Si tratta della vita artificiale. TI nome è stato proposto da Cristopher Langton, promotore nel 1987 a Los Angeles del Workshop interdisciplinare sulla sintesi e la simulazione dei sistemi viventi, che ha rilanciato una parola d'ordine dei tempi della cibernetica, con gli anni un po' appannata: « interdisciplinare ». Nella sua premessa al Workshop Langton (1989) individuava nel «comportamento emergente» l'idea chiave della vita artificiale: questa disciplina si propone di ricostruire artificialmente le proprietà dell'organizzazione dei sistemi viventi a partire dalla riproduzione delle interazioni locali che sono alla base del loro comportamento. La vita artificiale è diventata un terreno di incontro di diversi ricercatori interessati alla simulazione dell'evoluzione biologica, agli automi cellulari, all'« Animat », come Stewart Wilson ha chiamato la costruzione degli animali meccanici successori delle tartarughe di Grey Walter e dei «veicoli» di Valentino BraitenbergY Una linea di ricerca di lunga tradizione, che non sempre opportunamente viene ricondotta a quella della vita artificiale, è rappresentata dagli algoritmi genetici. Conclusa la sua collaborazione con Rochester, con cui aveva simulato al calcolatore la teoria dell'apprendimento di Hebb, e trasferitosi all'Università del Michigan, Holland maturò l'idea degli algoritmi genetici nella prima metà degli anni sessanta, influenzato tra l'altro dal libro del biologo evoluzionista R.A. Fisher, Genetic theory of natura! selection. La sintesi delle sue idee confluì nel volume pubblicato nel 1975 Adaptation in natura! and artz/icial systems. Da quel momento, per circa un decennio, gli algoritmi genetici furono oggetto di numerose ricerche rimaste ai margini della comunità dell'lA, soprattutto tesi di dottorato di studenti di Holland e relazioni a convegni informali, spesso neppure pubblicate. La rinascita dell'interesse nei loro confronti si deve al diffondersi del parallelismo e dello studio dei sistemi dinamici complessi, ma anche ai successivi sviluppi nello studio dell'evoluzione prebiotica. Gli algoritmi genetici rappresentano un modello fortemente idealizzato dei processi della selezione naturale. Essi partono generando a caso una popolazione di stringhe, corrispondenti ai genotipi dell'evoluzione naturale, ciascuna delle quali rappresenta una possibile soluzione a un dato problema. Tale popolazione viene fatta evolvere mediante l'applicazione di operatori basati su criteri di ricombinazione che simulano i processi genetici dell'evoluzione naturale. In questo modo da stringhe « genitrici » se ne generano altre, che rappresentano nuove soluzioni per il problema, possibilmente migliori. In un secondo tempo, gli algoritmi genetici sono stati inseriti nei sistemi a classificatori, veri e propri sistemi di apprendimento automatico, nei quali Holland ha 41 Il diffuso interesse per la vita artificiale (in Italia è attivo un gruppo di ricerca coordinato da D. Parisi) è testimoniato anche da Dyer, 1994 e dal-
l'intervento di Harnad, 1994 a proposito di vita artificiale e symbol grounding.
195
www.scribd.com/Baruhk
L'Intelligenza Artificiale Lista dei messaggi
Lista delle regole Confronto====
i====::::::==;:;::::::J]
l Messaggi in uscita
Messaggi in ingresso
Algoritmo Bucket Brigade (varia la forza delle regole) Algoritmo genetico (genera nuove regole)
Ambiente
Fig. ro.
Organizzazione di un sistema a classificatori (da Holland, 1990).
ripreso alcune intuizioni contenute nel vecchio programma per la dama di Samuel (Holland, 1990). li diagramma di flusso di un sistema a classificatori è rappresentato nella fig. 10. A ogni regola del sistema, codificata come una regola di produzione, si associa una certa «forza», che corrisponde alla sua già sperimentata utilità per la soluzione di un problema. A ogni ciclo, i « rilevatori » aggiungono dall' ambiente stringhe nella «lista dei messaggi», codificati come stringhe di un alfabeto binario, che vengono confrontate con la parte condizioni della « lista delle regole». Le regole le cui condizioni risultano soddisfatte attivano la parte azione e vengono messe in competizione tra loro da un algoritmo che ne può variare la forza, a seconda dell'utilità complessiva per l'adattamento del sistema all'ambiente. A questo punto interviene l'algoritmo genetico, che seleziona le regole di forza più elevata per prenderle come genitrici e genera una « prole » di nuove regole. Vengono così eliminate le regole più deboli e ne vengono create di nuove e sempre potenzialmente migliori.
www.scribd.com/Baruhk
L'Intelligenza Artificiale XVIII
·
CONCLUSIONE.
QUANTI
PARADIGMI
PER
UNA
SCIENZA?
Holland ha concluso che i sistemi a classificatori, visti come modelli cognitivi, si collocano in una «regione intermedia» tra i sistemi connessionisti e quelli simbolici. Come i sistemi connessionisti, essi insistono sulla microstruttura e sull' emergenza di computazioni complesse a partire da processi semplici; tuttavia, le loro unità fondamentali sono le regole di produzione, e quindi la conoscenza non si riduce in essi a un problema di forza delle connessioni (Holland, 1990). Alcune tendenze della visione artificiale si trovano a seguire una strada che « condivide parte dei due approcci», quello simbolico e quello connessionista (Hurlbert e Poggio, 1988). Un percorso di questo tipo è stato tentato, su altri fronti, dai ricordati sviluppi postconnessionisti. La futura ricerca in IA, soprattutto per quanto riguarda i modelli cognitivi, potrebbe avere ancora molto da dire sugli esperimenti che consistono nell'integrare o contaminare diversi approcci nello studio delle macchine intelligenti. Questi orientamenti non precludono naturalmente altri tipi di esperienze: da quelle puramente logico-linguistiche, a quelle sulle reti neurali nei campi più diversi, per esempio nella neuroscienza cognitiva, 42 a quelle più radicali di certa robotica o della vita artificiale. Sarebbe tuttavia auspicabile evitare di rendere questi approcci altrettanti paradigmi contrapposti con vocazione egemonica, con il solo risultato di ripetere vecchi errori. Sembra andare in questa direzione, per esempio, qualche valutazione eccessivamente ottimistica della vita artificiale, sulle cui spalle si tende a caricare adesso l'intero fardello della riproduzione dello sviluppo fino all'intelligenza: ancora una volta, per usare le parole con le quali Brian C. Smith riassumeva la storia dell'rA, ecco «la credenza che con un semplice meccanismo si possano realizzare cose straordinarie, data a sufficienza una risorsa di qualche tipo, come tempo, informazione, esperienza, capacità di calcolo» (Smith, 1991). 43 La questione dei paradigmi è comunque interessante e merita un cenno. A insistere sulla contrapposizione tra il loro paradigma « subsimbolico » e quello « simbolico» dell'lA sono stati soprattutto i connessionisti degli anni ottanta, con una terminologia resa canonica da Paul Smolensky (Rumelhart e altri, 1985). In un primo tempo, è sembrato di assistere agli effetti di una sorta di trauma: Rosenblatt aveva ragione, il libro di Minsky e Papert aveva ingiustamente cancellato le reti neurali dal mondo della ricerca. Forse il ruolo dei due è stato alquanto sopravvalutato. È vero che dopo la pubblicazione di quel libro nel 1969 ci fu un arresto nei finanziamenti della ricerca sulle reti neurali, in particolare negli Stati Uniti. Lo stesso Papert (1988) ha raccontato la storiella delle «due sorelle», l'IA e le reti neurali, che convissero pacificamente finché la DARPA non fece la sua scelta per la sorella IA 42 Si veda il capitolo di A. Oliverio sulle neu· roscienze in questo volume. 43 Proposte più moderate (Steels, 1994)
vedono invece la vita artificiale come « complementare >> all'lA e alle reti neurali nello studio del comportamento emergente.
197
www.scribd.com/Baruhk
L'Intelligenza Artificiale
(successivamente, comunque, anche l'altra sorella è rientrata nelle grazie della DARPA). Probabilmente, anche la morte improvvisa di Rosenblatt, di certo un propagandista delle proprie idee non meno spregiudicato di Minsky, influì sul ridimensionamento della ricerca sulle reti neurali. Tuttavia, essa fu proseguita da diversi ricercatori, anche se in un clima di isolamento, proprio come avvenne in seguito nella più esigua comunità degli algoritmi genetici, i cui risultati, con gli sviluppi dei sistemi a classificatori, sembrano più profondi di quelli raggiunti dal connessionismo degli anni ottanta. Come hanno scritto Anderson e Rosenfeld (1988), «al momento, le nostre reti, dopo trent'anni di progressi, funzionano ancora come "cervelli lesionati" [incapaci di comportamento simbolico, secondo l'espressione dello stesso Rosenblatt]. Resta aperta la questione di quali severe modifiche apportare alla teoria delle reti neurali affinché riescano a raggiungere le funzioni cognitive superiori ». Da parte sua, James McClelland ha dichiarato di non credere che l'evento decisivo per l'arresto della ricerca sulle reti neurali sia stato il libro di Minsky e Papert. Tenendo conto del fatto che la ricerca sulle reti si fa simulandole su calcolatore, semplicemente « non si era pronti per la ricerca sulle reti neurali. [... ] La potenza di calcolo dei [calcolatori dei] primi anni sessanta era del tutto insufficiente». Per quanto ovvio, sarà bene ricordare che questi limiti delle prestazioni dei calcolatori sono gli stessi che hanno condizionato lo sviluppo e non poche scelte dell'rA simbolica: a puro titolo d'esempio, si pensi alla scelta del « paradigma » della conoscenza rispetto al precedente « paradigma » della ricerca euristica sui problemi giocattolo, una scelta che semplicemente non si sarebbe posta senza disporre di calcolatori con grandi memorie e una grande potenza di calcolo. Ha raccontato Simon che a orientare la ricerca del suo gruppo verso compiti in cui non era richiesta molta conoscenza fu inizialmente anche la mancanza di tali calcolatori: che la conoscenza fosse importante per l'intelligenza era noto, ma non era ancora possibile affrontarla sulle macchine. 44 Resta il fatto che le capacità dei primi calcolatori incoraggiavano la sperimentazione di euristiche deboli su problemi giocattolo, in quel momento considerati la vera Drosophila dell'rA. È in quel campo che parve possibile tentare di affrontare l'esplosione combinatoria, ed è lì che si ebbero i primi decisivi successi. Anche se, visti retrospettivamente, questi possono apparire poco significativi, per l'epoca erano innegabilmente tali da incoraggiare certe scelte (e anche certe illusioni) piuttosto che certe altre: per la « manipolazione euristica di simboli » invece che per l'« imitazione del cervello » o per la « rappresentazione della conoscenza». Nessuna linea di ricerca viene spazzata via da un libro se non è già debole per conto suo. Un caso molto diverso da quello delle reti neurali, che tuttavia può suggerire qualche riflessione, è quello della traduzione automatica. Essa era in un vicolo cieco e i finanziamenti furono interrotti !!. metà degli anni sessanta. In molti chiedevano 44 Le due testimonianze di McClelland e di Simon sono state raccolte da Crevier, 1993.
www.scribd.com/Baruhk
L'Intelligenza Artificiale
che si arrivasse a farlo, incluso Minsky, che nel 1961 protestava perché si investivano risorse in una ricerca fallimentare. Questa fu ripresa, come si è visto, qualche anno dopo, una volta individuata una strada più promettente che portò a collegare la traduzione automatica agli studi dell'lA sul linguaggio naturale. Anche in questo caso fu lo sviluppo della potenza dei calcolatori a rendere praticabile la ricerca, sia pure ridimensionata rispetto ai progetti iniziali, e a consentirne applicazioni in settori diversi. Anche nel ricostruire la storia dell'lA simbolica ci è capitato di imbatterci in contrapposizioni tra paradigmi: il paradigma della ricerca euristica e quello della conoscenza; quello logicista e quello antilogicista; quello dichiarativista e quello proceduralista. È evidente che nessuno di questi può essere riconosciuto come un paradigma in senso tecnico, alla Kuhn. Piuttosto, ciascuno descrive la parola d'ordine di indirizzi di ricerca diversi e anche rivali, in una storia come quella dell'lA in cui si intraprendevano e poi si abbandonavano le strade più diverse, salvo poi riprenderne qualcuna a distanza di tempo; in cui non c'è stata mai vera unanimità sullo stesso oggetto di studio: la mente umana o quella artificiale? («questa [che si studia in IA] è intelligenza arti/z"ciale », diceva McCarthy in proposito); in cui può risultare «offensivo», come concludeva Hayes (1984), persino tentare di definire l'IA, « dal momento che qualsiasi definizione tende a escludere qualcuno, e a nessuno piace sentirsi dire che non sta lavorando nella disciplina in cui pensa di lavorare » (si ricordi la definizione della In/ormation Processing Psychology di Newell e Simon come « la disciplina che usa metodi estranei alla psicologia cognitiva per trattare questioni estranee alla IA »). Non è certo, questa, la descrizione di una scienza «matura», cumulativa (Dreyfus vedeva nell'assenza di cumulatività il germe del suo fallimento), ma è quella che risulta dalla ricostruzione storica qui tentata. Va detto poi che molte di queste contrapposizioni di « paradigmi » non sono state avvertite sempre e ovunque con la stessa asprezza; per esempio, di quella tra dichiarativisti e proceduralisti, osservava McDermott (1976), alla Carnegie-Mellon non si sono preoccupati affatto. In questo panorama non poco tormentato, l'evento dell'emarginazione e poi della ripresa della ricerca sulle reti neurali non appare in fondo così sconcertante come è stato qualche volta descritto. E il fatto che sia possibile, almeno in certi casi, accostare esperienze di IA e connessioniste « in una regione intermedia» sembra confermarlo, rendendo un esercizio retorico la loro contrapposizione in due paradigmi rivali. Sulla improponibilità di tale contrapposizione ha insistito Margaret Boden. La sua convinzione è che nei due approcci tutti lavorano sullo stesso problema e si pongono domande comuni, che per di più hanno una stessa origine nell'articolo di McCulloch e Pitts, ugualmente fondamentale tanto per la scienza dei calcolatori digitali quanto per le reti neurali (Pfeifer e altri, 1989). In un certo senso, sarebbe più appropriato parlare di due diversi stili di computazione, quello simbolico e quello « brain style » o subsimbolico. C'è comunque un problema posto da Smolensky 199
www.scribd.com/Baruhk
L'Intelligenza Artificiale
(1988) che va al di là della semplice diversità tra stili di computazione e che renderebbe questa volta giustificabile la tesi dei paradigmi contrapposti, non fosse altro perché alla luce del connessionismo si vedrebbero i limiti intrinseci del programma di ricerca dell'IA simbolica nel suo insieme. Smolensky si è chiesto se i modelli costituiti di reti finite di neuroni artificiali, interpretati come dispositivi computazionali analogz"d basati su processi fisici contz"nui, non possano dar luogo a una «teoria [connessionista] della computazione parallela analogica» in grado di sfidare una «versione forte» della tesi di Turing. 45 In tale tesi, che riguarda le funzioni calcolabili attraverso procedure meccaniche discrete, egli riassume le assunzioni teoriche del programma di ricerca dell'lA. La nuova teoria computazionale connessionista darebbe allora sostegno, stando a Smolensky, all'ipotesi di un calcolatore analogico che non sarebbe simulato da nessuna macchina di Turing. Si tratta, allo stato attuale delle conoscenze, di una mera possibilità, che, solo qualora si realizzasse, porterebbe nella terra incognz"ta dove le teorie connessioniste sarebbero veramente alternative a quelle simboliche. 46
45 Una discussione approfondita di questo punto è contenuta in Tamburrini, 1996. 46 Nel descrivere l'evoluzione dei tanti progetti e proposte che caratterizzano la pur breve storia dell'lA sono consapevole di aver compiuto scelte e omissioni che possono essere variamente valutate. Me ne assumo naturalmente la responsabilità, nono-
stante nella stesura del testo mi sia giovato dei commenti e delle critiche di diversi lettori. Ringrazio Ernesto Burattini, Luigia Caducei Aiello, Marcello Frixione, Salvatore Guccione, Vittorio Somenzi, Guglielmo Tamburrini, Settimo Termini, Giuseppe Trautteur.
200
www.scribd.com/Baruhk
CAPITOLO
QUINTO
Neuroscienze e filosofia della mente DI ALBERTO OLIVERIO
I
· PREMESSA
Le neuroscienze sono probabilmente, insieme alla biologia molecolare, il settore che ha conosciuto la maggiore espansione tra le discipline biomediche nel corso degli ultimi decenni. Si tratta di una disciplina ibrida, che spazia dagli studi sul sistema nervoso degli invertebrati a quelli sull'uomo, dalla neurobiologia alla psicobiologia, dalla fisiologia del sistema nervoso alla neuro e psicopatologia. Un indice della rapida evoluzione delle neuroscienze è fornito dalla crescita delle associazioni scientifiche che raccolgono i ricercatori attivi in questo settore. Negli Stati Uniti d'America la Society /or Neuroscience nasce nel 1971 con meno di 2.ooo associati mentre oggi ammonta a circa 25.ooo soci. All'inizio degli anni settanta nasce in Europa la European Neuroscience Association, cui oggi aderiscono circa 3.ooo soci e nel 1983 viene costituita la Società Italiana per le Neuroscienze. La crescita esponenziale che ha interessato le neuroscienze è strettamente intrecciata con la disponibilità di metodiche, tecnologie e strumenti di analisi messi a disposizione dalla fisica e dalla chimica. Tuttavia un aspetto centrale nello sviluppo di questa disciplina è costituito dai progressi compiuti nell'ambito dell'anatomia fine del neurone, delle sue caratteristiche neurofisiologiche e neurochimiche che hanno chiarito come le cellule nervose comunichino a livello delle sinapsi nervose, sedi di scambi di informazioni sotto forma di messaggeri nervosi. Sono stati gli studi neurobiologici a consentire di unificare le neuroscienze intorno a un asse portante, quello neurobiologico-neurochimico, mentre in precedenza esse erano frammentate in diversi filoni: quello clinico, improntato alla neurologia, quello anatomo-patologico, quello fisiologico e quello comparato, fondato su un approccio evolutivo al sistema nervoso. Malgrado le linee di ricerca in campo neuroscientifico siano numerosissime, come indica per esempio l'ormai classico trattato di Kandel e Schwartz (1985), è possibile tracciare un profilo dell'evoluzione di questa disciplina centrato sugli studi nel campo della fisiologia del neurone, sul criterio di plasticità nervosa, sui progressi nel campo della memoria e sui rapporti tra cervello e mente: dalla sia pur sommaria analisi di questi argomenti è infatti possibile comprendere quale sia stata l'evoluzione concettuale delle neuroscienze e quali ricadute esse 201
www.scribd.com/Baruhk
Neuroscienze e filosofia della mente
abbiano avuto sull'immagine dell'uomo e sugli approcci filosofici alla mente. II
• LE
RICERCHE
SULLA
FISIOLOGIA
NEURONALE
Gli studi sui neurotrasmettitori o «mediatori nervosi », cioè sulle molecole liberate dalle sinapsi dei neuroni per eccitare o deprimere altri neuroni od organi « effettori », hanno ovviamente sollevato interrogativi sulle caratteristiche dei siti su cui agiscono i trasmettitori. Nella sua Croonùm lecture del 1900, Paul Ehrlich (1854-1915) aveva ipotizzato, parlando delle reazioni immunitarie, che le sostanze prodotte dall'organismo esercitassero un'azione sui tessuti in quanto« stabiliscono relazioni intime. Questa relazione è specifica. I gruppi chimici si adattano l'un l'altro come la serratura e la chiave». La teoria del recettore venne sviluppata in seguito dal grande fisiologo inglese Henry Dale (1875-1968) e lo studio dei recettori acetilcolinici venne intrapreso, a partire dagli anni cinquanta, da David Nachmanson (1959) e in seguito dai suoi allievi, Arthur Karlin e Jean-Pierre Changeux. Gli studi sui recettori hanno dimostrato che le cellule nervose rispondono ai segnali chimici - per esempio, gli ormoni o i neurotrasmettitori - in quanto la membrana che le riveste è provvista di molecole proteiche che si legano con una specifica molecola - il mediatore nervoso - o con una molecola a essa molto simile: queste proteine, che fanno parte della membrana che avvolge la cellula dandole forma e isolandola dall'esterno, vengono definite recettori. I recettori hanno un'elevata affinità per la molecola con cui interagiscono la quale, proprio come Ehrlich aveva previsto, va a incastrarsi su una determinata proteina della membrana cellulare come una chiave di sicurezza si inserisce in una determinata toppa di una serratura. Tuttavia la stessa molecola chimica può inserirsi, a seconda della cellula, su proteine lievemente differenti: ciò comporta che su un tipo di cellula una data molecola eserciti effetti diversi rispetto a quelli che essa esercita su un'altra cellula. Per esempio, il neurotrasmettitore acetilcolina, agendo su due diversi tipi di proteina recettore, stimola la contrazione delle cellule dei muscoli scheletrici ma deprime la contrazione delle cellule del muscolo cardiaco. Qualcosa di simile si verifica anche a livello dei neuroni: alcuni di essi hanno dei recettori su cui il mediatore nervoso agisce producendo effetti eccitatori e altri hanno dei recettori su cui lo stesso mediatore può produrre effetti inibitori. È questo il caso, per esempio, dei recettori colinergici di tipo muscarinico e nicotinico che svolgono effetti opposti. Negli anni ottanta i recettori colinergici sono stati descritti sia dal punto di vista morfologico sia dal punto di vista della loro struttura molecolare da diversi gruppi di ricerca, tra cui quello di S. Numa in Giappone e quello di Changeux in Francia. La scoperta che l'azione del neurotrasmettitore è condizionata dalla presenza di altre sostanze, che vengono chiamate modulatori, rappresenta un altro importante raggiungimento delle neuroscienze. Nell'ambito dei modulatori le endorfine, od « oppioidi endogeni», svolgono un ruolo molto importante sul recettore nervoso e 202
www.scribd.com/Baruhk
Neuroscienze e filosofia della mente
la loro scoperta ha rappresentato un enorme passo avanti nella conoscenza dei meccanismi neuronali e delle basi biochimiche del comportamento. Intorno alla metà degli anni settanta tre ricercatori, John Hughes, Hans Kosterlitz e Roger Guillemin, trovarono la risposta a un enigma che aveva appassionato per diversi anni gli studiosi di neuroscienze. I neurobiologi si domandavano infatti come mai molecole estranee al nostro organismo, quali la morfina o l'eroina, esercitassero la loro azione analgesica e comportamentale: essi postularono che i derivati dell'oppio occupassero dei « siti » recettoriali predisposti per interagire con molecole endogene, cioè prodotte dal nostro organismo. Tra il 1975 e il 1978 Hughes, Kosterlitz e Guillemin riuscirono a isolare queste molecole che chiamarono « endorfine », dei peptidi che si fissano su alcuni recettori nervosi specifici per gli oppiacei. Come le endorfine, anche altri neuromodulatori esplicano la loro azione in quanto attivano o inibiscono enzimi che servono per fabbricare un « secondo messaggero » nervoso, cioè molecole con una struttura « ciclica » come l' adenosin monofosfato ciclico (AMPc) o il guanosin monofosfato ciclico (GMPc): queste molecole rispondono all'azione congiunta del mediatore e del modulatore nervoso sul recettore. Le molecole « cicliche » possono non soltanto stimolare o limitare il metabolismo della cellula nervosa, ma anche modificare l'apertura o la chiusura dei canali della membrana attraverso cui entrano ed escono gli ioni sotto l'azione della molecola del neurotrasmettitore. Il gioco delle molecole a livello del recettore è quindi più complesso di quanto non si ritenesse quando si consideravano esclusivamente gli effetti del solo neurotrasmettitore. Nell'ambito degli studi sui recettori nervosi occupano un posto particolare quei recettori su cui non agiscono i mediatori nervosi ma molecole diverse, come quelle ad azione « trofica »: queste non veicolano segnali utili alla comunicazione ma, sempre agendo su appositi recettori, fanno sì che le cellule crescano e sopravvivano. Nel corso dello sviluppo, la crescita e la sopravvivenza di alcune cellule nervose dipende dal «fattore di accrescimento del nervo» (Nerve Growth Factor) o NGF, una proteina scoperta nel 1952 da Rita Levi Montalcini (n. 1909) che viene secreta in diversi siti dell'organismo, tra cui le cellule-bersaglio di alcune cellule nervose. L'NGF esercita la sua azione su cellule nervose immature appartenenti al sistema simpatico e coltivate in vitro, come hanno indicato le prime ricerche di Levi Montalcini: sotto l'azione del fattore di crescita, i neuroni sviluppano una folta chioma di prolungamenti dendritici. Ricerche successive hanno dimostrato che, mentre normalmente i neuroni in corso di sviluppo che non riescono a formare la giunzione sinaptica con le proprie cellule-bersaglio muoiono, essi possono invece sopravvivere se nel tessuto nervoso viene iniettato dell'NGF. Infine, se si iniettano nei topi neonati anticorpi anti-NGF, che neutralizzano l'azione di questo fattore di crescita, si verifica una morte selettiva di numerosi simpatici. L'NGF, che si fissa su appositi recettori localizzati sulla superficie neuronale, non 203
www.scribd.com/Baruhk
Neuroscienze e filosofia della mente
e Importante soltanto per assicurare la sopravvivenza delle cellule simpatiche, ma anche per dirigere le fibre nervose verso le cellule-bersaglio che, in condizioni normali, le attraggono producendo NGF. Ma l'NGF e altri fattori « neurotrofici » agiscono anche sulle cellule nervose del sistema nervoso centrale, per esempio su quelle colinergiche: i fattori neurotrofici giocano un ruolo critico soprattutto nei processi di plasticità, cioè in tutte quelle situazioni dove si verifica una ristrutturazione dell' architettura del sistema nervoso per formare nuovi circuiti o per riparare i danni che derivano da lesioni diverse. All'NGF e a molecole simili è stato inoltre attribuito un ruolo importante nei processi psico-neuro-immunologici, che sono al centro delle reazioni di tipo psicosomatico. Le ricerche fin qui esposte rappresentano la base neurobiologica e neurofisiologica che ha consentito di erigere il complesso edificio delle neuroscienze attuali. Va notato a questo punto che gli studi sulla fisiologia dei neuroni, sulle caratteristiche dei mediatori e dei recettori, sullo sviluppo neuronale, sulle modalità attraverso cui i neuroni costituiscono reti funzionali hanno potuto conoscere notevoli e crescenti successi grazie alla disponibilità di alcune tecniche. Queste hanno, per esempio, consentito inizialmente di registrare l'attività elettrica cerebrale con elettrodi disposti sulla superficie cranica o a contatto con aree superficiali e profonde del cervello (J. Berger, 1929), e in seguito l'attività dei singoli neuroni spingendo sottili elettrodi dentro la cellula; i potenziali elettrici a livello delle singole sinapsi (P. Fatt e B. Katz, 1951); i potenziali di azione, correlandoli con le modifiche ioniche del sodio e potassio a livello della fibra nervosa (K.S. Cole e H.J. Curtis, 1939; A.L. Hodgkin e Katz, 1949), fino alle complicate misurazioni delle variazioni di corrente di un singolo canale del sodio a livello della membrana nervosa (tecnica del patch clamp o del tassello, B. Sackmann e E. Neher, 1983). Per contro, sono state messe a punto altre tecniche che hanno permesso, invece, di registrare l'attività dei neuroni, di stimolare con elettrodi aree nervose o singole cellule, di somministrare con microcannule sostanze chimiche in regioni del cervello e di estrarne metaboliti (push-pull cannulre, L. Stein e R. Wise, 1971), sino alle più recenti tecniche «non invasive » che permettono di esplorare nell'organismo vivente l'anatomia del cervello attraverso l'associazione di tecniche radiologiche e informatiche (TAC, tomografia assiale computerizzata, G. Hounsfield e A. Cormack) e di visualizzare delle aree cerebrali e il loro metabolismo in vivo con la tecnica della tomografia a emissione di positroni, basata sull'uso di sostanze marcate con radioisotopi (PET, M.E. Phelps e L. Sokoloff), o con la tecnica basata sulla visualizzazione a risonanza magnetica nucleare (NMR, P.C. Lautbur), che non si basa né sull'uso di raggi X, come la TAC, né sull'uso di radioisotopi come la PET, e non sottopone quindi l'organismo a fonti di radiazioni. L'insieme di tali tecniche ha consentito di raggiungere risultati di crescente importanza nell'ambito delle neuroscienze, che devono i loro successi a questo approccio ibrido, basato su una stretta interazione tra biologia, fisica e chimica. Alla 204
www.scribd.com/Baruhk
Neuroscienze e filosofia della mente
conoscenza della funzione neuronale ha dato un forte contributo la biologia molecolare: attraverso questo approccio è stato anzitutto possibile stabilire la struttura di alcuni recettori nervosi, come ha fatto Changeux (1981) che ha descritto la struttura del complesso recettore-proteina canale del neurotrasmettitore acetilcolina. Questi recettori sono stati anche « trapiantati » in grosse cellule non nervose, come l'uovo di un anfibio, Xenopus laevis. R. Miledi (1971) ha iniettato nell'uovo di Xenopus RNA messaggero proveniente dal cervello; l'RNA, che codifica le informazioni necessarie a stabilire la struttura dei recettori, induce l'uovo in via di sviluppo a « fabbricare » sulla sua membrana i recettori dei neurotrasmettitori nervosi che sono così facilmente accessibili per studiarne la funzione. Altri ricercatori cercano invece di studiare le modalità attraverso cui, a partire da diverse informazioni genetiche, si formino diverse proteine cerebrali. Per esempio, F. Bloom (1987) ha stabilito che il cervello dei mammiferi deve la sua complessità a circa 3o.ooo RNA messaggeri specifici: non soltanto ha identificato la sequenza di aminoacidi di numerose proteine ma le ha anche localizzate nei neuroni o nella glia. Accanto alle proteine che svolgono un ruolo fisiologico, ve ne sono altre che possono svolgerne uno patologico, come per esempio le molecole anomale di mielina, o quelle di amiloide che segnano la degenerazione neuronale in malattie come il morbo di Alzheimer: questi studi sono perciò importanti anche per le loro possibili ricadute applicative. I neurobiologi utilizzano altre strategie della biologia molecolare nel tentativo di localizzare con « sonde » il frammento di DNA - cioè il gene - che è responsabile per l'espressione di un dato peptide o proteina, cioè per aspetti normali o patologici della funzione nervosa. Sono stati cosi « posizionati » sui cromosomi (Gusella ·e coli., 1983) diversi geni, come quello responsabile della corea di Huntington, o quello che codifica l'enzima monoamminossidasi, che demolisce neurotrasmettitori come la dopamina o la noradrenalina. L'uso delle sonde è sempre più praticato nel campo delle malattie neurologiche a base genetica. III
· LA
NEUROBIOLOGIA
DELLA
MEMORIA
Gli studi sulla neurobiologia delle cellule e delle sinapsi nervose hanno avuto ricadute sui modelli delle basi biologiche della memoria, in particolare sui meccanismi di codificazione delle esperienze nell'ambito di particolari circuiti (« teoria del circuito locale»). Come si vedrà in seguito, si tratta di spiegazioni riduzionistiche che, pur gettando luce su un aspetto dei processi cognitivi, non possono però condizionare le teorie del cervello nel loro insieme, suggerendo che nei circuiti nervosi vengano codificate delle immagini statiche e puntuali della realtà. Le ricerche sulle basi biologiche della memoria, in particolare di quella associativa, sono fortemente legate al modello proposto all'inizio degli anni cinquanta dal neurofisiologo Donald O. Hebb cui si deve la cosiddetta ipotesi della doppia 205
www.scribd.com/Baruhk
Neuroscienze e filosofia della mente
traccia. Secondo questa ipotesi un'esperienza altera i circuiti nervosi che sono responsabili di una codificazione «a breve termine» (cioè della durata di pochi secondi o minuti), basata su modifiche dell'attività elettrica di alcuni neuroni o di un circuito nervoso in grado di codificare l'informazione in forma precaria, instabile. A questo tipo di codificazione subentra una codificazione stabile, la memoria « a lungo termine» (della durata di mesi o anni) legata a modifiche durature della struttura dei neuroni o dei circuiti nervosi. Nell'ipotesi di Hebb i due tipi di memoria fanno perciò capo ad alterazioni funzionali a livello dei neuroni e delle sinapsi nervose (memoria a breve termine), e a modifiche strutturali o permanenti a carico sia delle sinapsi nervose sia dei neuroni (memoria a lungo termine). Le teorie formulate da Hebb implicano pertanto che i neuroni siano plastici, in grado di andare incontro ad alterazioni della loro funzione o struttura, tali da comportare dei riarrangiamenti delle reti nervose: questo aspetto della funzione neuronale, postulato in via teorica circa mezzo secolo fa, ha ricevuto oggi numerose conferme sperimentali ed è alla base delle cosiddette « teorie hebbiane » che interessano sia il campo della memoria biologica sia quello dell'intelligenza artificiale. Le ricerche sulle basi psicobiologiche della memoria si basano in gran parte sugli studi delle alterazioni dell'attività elettrica dei neuroni e delle sinapsi che implicano un cosiddetto « potenziamento a lungo termine» (Long-Term Potentiation, LTP) dell'attività elettrica delle sinapsi nervose. Considerate in termini informatici le sinapsi che collegano tra loro i neuroni, sono rappresentabili come entità che possono trovarsi in uno stato di scelta binaria, lo stato di attività o lo stato di «attività potenziata». Una simile situazione si verifica nel corso dell' LTP: in seguito a uno stimolo che si ripete nel tempo o che sia particolarmente intenso, una sinapsi si porta a un livello superiore di risposta (attività potenziata), cosicché la sua efficienza aumenta fino a due volte e mezzo. Quest'incremento dell'attività elettrica della sinapsi si sviluppa entro pochi minuti dallo stimolo iniziale e rimane relativamente stabile per lungo tempo, in alcune condizioni per varie settimane. In sostanza, quando uno stimolo di un qualche rilievo perviene a un neurone, come avviene nel caso degli stimoli che si susseguono ripetutamente nel corso dell'abituazione o del condizionamento, si può verificare un aumento dell'efficienza delle sue sinapsi e, col tempo, si possono formare sinapsi nuove che contribuiscono a connettere tra di loro i neuroni in un nuovo circuito, il cosiddetto «circuito locale», responsabile della codificazione di una specifica esperienza o memoria. Da un'iniziale alterazione di tipo funzionale (l'attività elettrica, legata a modifiche degli ioni tra cui il calcio) i neuroni vanno così incontro a modifiche di tipo strutturale (indotte da alterazioni di enzimi di tipo chinasico e alla sintesi di proteine che alterano il citoscheletro dei neuroni e portano alla formazione di sinapsi che allacciano tra di loro i neuroni). Come si è detto, il concetto di « circuito locale» ha in qualche modo favorito una concezione della memoria basata su specifiche localizzazioni dei ricordi: tutta206
www.scribd.com/Baruhk
Neuroscienze e filosofia della mente
via, a parte alcuni casi di memorie specifiche quali quelle spaziali, legate al ruolo di alcune strutture del sistema limbico come l'ippocampo, oggi si ritiene che i ricordi non abbiano una sede specifica ma che dipendano dall'entrata in gioco di vaste aree corticali e sottocorticali; si ritiene inoltre che non costituiscano entità fisse e immutabili ma che dipendano da un complesso lavoro di generalizzazione e di categorizzazione effettuato dal cervello nel suo insieme. IV · IL E
PROBLEMA
PLASTICITÀ
DELLA
DELLE
LOCALIZZAZIONE
FUNZIONI
NERVOSE
Gli studi sui rapporti tra codificazione delle esperienze e circuiti locali hanno suggerito che le esperienze, e più in generale le funzioni mentali, potessero essere localizzate in micro o macrostrutture cerebrali: questa concezione è stata posta in crisi da una serie di esperienze che sottolineano non soltanto la plasticità della corteccia cerebrale ma anche il dinamismo dei rapporti struttura-funzione. Verso la fine degli anni cinquanta il neurofisiologo canadese Wilder Penfield (r891-1976) tracciò una sorta di mappa topografica delle aree motorie della corteccia umana. Nel corso di minuziosi interventi di neurochirurgia volti ad asportare dei tumori della corteccia, Penfield sondò le funzioni di diversi territori corticali e riuscì a mapparli in modo preciso. Le mappe descritte da Penfield, note col termine di omuncolz; non sono altro che una rappresentazione sproporzionata delle parti di un arto - ovverosia dei muscoli coinvolti nei movimenti fini - a livello della corteccia cerebrale: nell'uomo, per esempio, i muscoli della mano e del viso hanno una rappresentazione più estesa - cioè occupano una più vasta superficie corticale - rispetto a quella di altri territori, meno importanti dal punto di vista motorio e quindi controllati da un minor numero di neuroni. Successivamente Penfield si occupò dell'aspetto opposto a quello della motricità, cioè della decodificazione, effettuata dalla corteccia, delle sensazioni che provengono dai vari distretti del corpo. Egli notò che se si stimolavano tattilmente le diverse aree del corpo umano e si registravano con appositi strumenti le reazioni elettriche del cervello, vi erano specifiche aree corticali i cui neuroni si attivavano (dimostravano variazioni dell'attività elettrica). Penfield tracciò una mappa dei territori corticali interessati alla decodificazione degli stimoli sensoriali (per esempio, quelli tattili), notando che anche in questo caso esisteva un « omuncolo », localizzato in un'area della corteccia situata posteriormente rispetto a quella motoria. Gli esperimenti effettuati da Penfield hanno dimostrato senza ombra di dubbio che alcune funzioni, come quelle motorie e quelle sensoriali, sono localizzate in specifiche aree della corteccia. La presenza di omuncoli motori e sensoriali non implica che le mappe corticali siano rigide e « fisse », immutabili per tutta la vita di un individuo, ma comporta che si tratti di carte topografiche i cui confini possono variare nel corso della vita, adattandosi a nuove esigenze e situazioni dei ter207
www.scribd.com/Baruhk
Neuroscienze e filosofia della mente
ritori periferici. I risultati di diversi esperimenti effettuati in questi ultimi tempi indicano che le carte topografiche del cervello, cioè gli omuncoli, sono fortemente variabili, estremamente plastiche e soggette a profondi rimaneggiamenti: e ancor più plastici possono essere altri territori della corteccia, implicati in funzioni più sfumate e complesse come l'apprendimento e la memoria. Un primo dato sulla plasticità degli omuncoli proviene da osservazioni di tipo clinico. In seguito alla perdita traumatica o all'amputazione di un arto, la mappa dei territori periferici, sia quella motoria sia quella sensoriale, va incontro a profondi rimaneggiamenti di tipo adattativo, cioè utili a dare maggior spazio o « rappresentazione » centrale a quelle aree del corpo che ora potrebbero vicariare la funzione scomparsa: l'altro arto, il moncone residuo dell'arto, ecc. Tuttavia non occorre ipotizzare una situazione talmente drastica quale la perdita di un arto per studiare e comprendere la plasticità dell'omuncolo e quindi della corteccia cerebrale: per esempio, è stato osservato che un aumento della funzione di un territorio periferico si pensi alla mano di un pianista o alle braccia di un giocoliere - comporta una dilatazione della mappa corticale: in altre parole un maggior numero di neuroni si prende carico di una particolare funzione, come se la mappa corticale fosse tracciata sulla superficie di un palloncino di gomma e questo venisse più o meno gonfiato o deformato. Recenti esperimenti indicano inoltre che in alcuni casi i rimaneggiamenti a livello dell' omuncolo possono essere transitori e durare soltanto alcuni giorni o settimane: se infatti si sollecita una specifica area della corteccia sensitiva di un animale con una prolungata stimolazione elettrica, o se ne blocca la funzione con opportune sostanze, la struttura dell'omuncolo, cioè la sua espressione topografica, cambia drasticamente, come se i neuroni, situati ai confini di un'area stimolata o inibita, si ridistribuissero i compiti per far fronte a una situazione di emergenza. li concetto di « area localizzata » è stato rivisitato di recente sulla base delle ricerche effettuate negli ultimi anni in campo neuroscientifico: per esempio, le ormai classiche ricerche (1970) di David H. Hubel (n. 1926) e Torsten N. Wiesel (n. 1924) hanno indicato che alcune aree della corteccia occipitale sono predisposte per la visione binoculare, in modo da assicurare la fusione delle immagini formate sulle due retine e fornire una rappresentazione tridimensionale della realtà. Parte dell'area corticale visiva è infatti strutturata in « colonne di dominanza oculare », disposte in modo tale che se una colonna ha un campo recettivo nell'occhio sinistro (riceve informazioni da una piccola area della retina dell'occhio sinistro), la colonna a fianco, distante poco meno di mezzo millimetro, risponderà agli stimoli che incidono sullo stesso punto dell'occhio destro. Queste colonne si alternano per tutta l'area corticale: si può quindi affermare che esiste un'evidente predisposizione per una decodificazione «intelligente » degli stimoli visivi e che questa funzione è localizzata in una specifica parte della corteccia. Anche in questo caso, tuttavia, il rapporto tra la predisposizione genetica, alla 208
www.scribd.com/Baruhk
N euroscienze e filosofia della mente
base delle caratteristiche e localizzazioni della funzione corticale, e gli effetti dell' ambiente sono complessi: è infatti sufficiente che nel corso delle fasi precoci dello sviluppo gli stimoli provenienti da uno dei due occhi vengano a mancare per qualche giorno (come avviene se si benda l'occhio di un neonato per più giorni), perché venga a cessare l'alternanza funzionale, in quanto tutto lo spazio disponibile viene «invaso» dalle fibre nervose provenienti dal solo occhio funzionante: l'altro occhio diverrà così « cieco», non tanto perché non percepisce più gli stimoli visivi, ma in quanto la corteccia su cui si proiettavano le sue fibre nervose (la colonna di dominanza oculare) è stata occupata dalle fibre che convogliano le afferenze provenienti dall'occhio non bendato. Questi e altri risultati nell'ambito delle neuroscienze pongono in crisi quelle teorie che consideravano il cervello un mosaico di funzioni rigidamente localizzate in sedi specifiche; di conseguenza, essi pongono in crisi teorie, come quella del circuito locale, che presuppongono specifici circuiti atti a codificare specifiche memorie. Infatti, la plasticità che caratterizza la rappresentazione degli omuncoli motori e sensoriali, cioè il fatto che i loro confini possano variare nel tempo in un complesso gioco di espansioni o contrazioni a seconda dell'esercizio di una funzione, dell'uso o del non uso, o la plasticità che caratterizza altre aree corticali, come la corteccia visiva, ci dice che bisogna introdurre fattori correttivi in quelle rappresentazioni che sostengono un rigido determinismo e una stretta localizzazione delle funzioni nervose. D'altronde anche l'età rappresenta, di per se stessa, un fattore che si traduce in una variazione della «cartografia» cerebrale: per esempio, l'area di Braca, responsabile degli schemi motori del linguaggio, arretra in tarda età « spostandosi» posteriormente rispetto al sito occupato in età più giovanile. Il fatto che la localizzazione e rappresentazione topografica degli schemi motori e sensoriali possa variare nel tempo, che le associazioni che si formano tra funzioni sensoriali e funzioni motorie possano essere rimaneggiate - come indicano diverse ricerche centrate sui cambiamenti cui va incontro l'« architettura» dei circuiti che sono alla base delle associazioni sensorio-motorie, cioè delle memorie di tipo procedurale - , ha suggerito che la stessa rappresentazione dei ricordi potesse variare nel tempo e che le memorie potessero essere oggetto di un «rimpasto» teso al loro aggiornamento. La mutevolezza dei ricordi nel tempo appare da due ordini di ricerche, sperimentali e cliniche: per quanto riguarda il primo approccio, Larry R. Squire ha indicato che i trattamenti che inducono amnesia, come l'elettroshock, non agiscono soltanto sul processo di consolidazione della memoria, cioè sulla trasformazione da memoria breve a memoria lunga, ma anche sulle memorie già consolidate. Ciò contraddice in qualche misura un vecchio «dogma» relativo al consolidamento della traccia mnestica: infatti, gli psicobiologi ritenevano che, una volta consolidata, la memoria non potesse essere più turbata da quei trattamenti, come l'elettroshock, che provocano un dissesto di quei fenomeni bioelettrici alla base della memona breve, che attraverso l'LTP, portano alla memoria «a lungo termine». 209
www.scribd.com/Baruhk
Neuroscienze e filosofia della mente
li fatto che }'elettroshock agisca anche a distanza di mesl Sla SU memorie di tipo associativo sia su vere e proprie memorie di tipo cognitivo, « cancellando » parte dei ricordi già registrati, indica che la memoria è suscettibile di rimaneggiamenti e rielaborazioni. A questo proposito il biologo Gerald Edelman (n. 1929), ben noto per i suoi studi sul sistema immunitario e sull'organizzazione del sistema nervoso, ha ipotizzato che i ricordi vengano continuamente sottoposti a un processo di riorganizzazione che è indotto dalle cosiddette informazioni estrinseche e intrinseche: le prime sono nuove informazioni che possono interferire con quelle già registrate o modificarne la rappresentazione cognitiva; le seconde, definite da Edelman informazioni di «rientro», farebbero capo a una «circolarità» delle esperienze e memorie: ogni nuova informazione di tipo sensoriale o esperienza, verrebbe confrontata con analoghi schemi preesistenti o successivi, attraverso una sorta di continuo lavorio della mente che paragona i vecchi schemi coi nuovi, eventualmente riaggiornando i primi. Della mutevolezza dei ricordi nel tempo testimoniano anche le analisi di ricerche cliniche di tipo longitudinale basate sulle cosiddette Li/e historz"es o autobiografie, raccolte a distanza di due, cinque, dieci anni dallo stesso sperimentatore. Anche in questo caso si nota come la persistenza nel tempo di alcuni ricordi o esperienze che vengono ritenuti fondamentali da una determinata persona in quanto « pietre miliari » della sua vita, sia tutt'altro che stabile: lo stesso evento viene narrato in modo diverso, i particolari cambiano, cambia il suo stesso significato, come se la memoria, anziché corrispondere a una precisa « fotografia » della realtà, fosse un pezzo di plastilina che gradualmente cambia forma. V
• LA
MEMORIA
COME
LUOGO
SIMBOLICO
DELLA
MENTE
Le teorie sulla memoria hanno una valenza più generale e spesso investono le teorie della mente, come nel caso di numerose teorie funzionaliste e cognitiviste che considerano le cosiddette « reti neurali » come dei circuiti locali che sostengono ogni tipo di software mentale. Tuttavia se le variazioni sinaptiche e la formazione di reti neurali possono costituire degli aspetti di base delle attività cognitive, della memoria e di altre funzioni «intelligenti », le memorie di tipo cognitivo sono ben più complesse e ricche di quelle che si riferiscono alla registrazione di stimoli ripetitivi - l'abituazione - e alle memorie di tipo associativo. Lo studio delle basi biologiche della memoria indica d'altronde come il ricordare non implichi soltanto una codificazione delle esperienze che, in seguito, consentirà di rievocare le memorie: la memoria, infatti, viene anche modulata da un insieme di sottosistemi che contribuiscono a rafforzare o attenuare i processi di consolidazione: tra i sistemi che giocano un ruolo fondamentale in questo processo, o tra i fattori che conferiscono una valenza fondamentale ai processi cognitivi, l'emozione ha un ruolo primario. Ed è proprio l'emozione che viene sottovalutata nella maggior parte delle teorie funzio210
www.scribd.com/Baruhk
Neuroscienze e filosofia della mente
naliste, malgrado essa sia fortemente implicata nei processi cognitivi e contribuisca a delineare una dimensione fondamentale della coscienza. Per illustrare la centralità dei processi emotivi in molti aspetti dei fenomeni cognitivi, o almeno di quelli che non implicano una mera attività di decodificazione computazionale degli stimoli sensoriali, si può partire dalle stesse basi biologiche della memoria. Il processo di codificazione mnestica - cioè la consolidazione della memoria da una forma labile a una stabile e duratura - viene infatti « modulato » da sostanze prodotte dall'organismo sia a livello del sistema nervoso centrale sia a livello periferico e va incontro a notevoli variazioni dovute a interazioni con altri meccanismi neurobiologici e con altri stati mentali come le emozioni che si traducono in numerose modifiche vegetative somatiche: esse non soltanto segnalano al cervello che il «corpo è emozionato», conferendo una coloritura determinante ad alcune esperienze, ma anche costituiscono un aspetto fondamentale della coscienza. Gran parte degli studi sui rapporti tra fattori emotivi e cognitivi si riferiscono al ruolo esercitato dalle strutture del «sistema limbico ». Numerose connessioni uniscono la corteccia ai nuclei nervosi sottocorticali, consentendo alla corteccia cerebrale di esercitare un doppio ruolo nei processi comportamentali: da un lato essa svolge delle complesse astrazioni, cioè rappresenta la sede delle più elevate attività mentali, ma dall'altro lato essa riceve informazioni dai recettori sensoriali e da quei nuclei sottocorticali, come quelli del sistema limbico e del prosencefalo, che sono addetti al controllo degli stati interni e delle emozioni dell'organismo. Nell'ambito di questa seconda funzione, la corteccia non si limita a ricevere e analizzare le informazioni che provengono dai recettori sensoriali (visivi, acustici, ecc.) o da quelli relativi agli stati interni (modifiche dell'umore, ecc.) che sono modulati dai nuclei sottocorticali: la corteccia, infatti, invia fibre nervose in direzione dei nuclei del sistema limbico e del sistema prosencefalico e integra le reazioni di questi nuclei, paragonandole e uniformandole con quelle che hanno avuto luogo in occasione di eventi simili; le molteplici interconnessioni tra la corteccia e i nuclei sottocorticali svolgono perciò un ruolo critico nell'integrare le informazioni del presente con quelle del passato, in tal modo assicurando una dimensione temporale alla memoria. In sostanza non esiste una sola sede cerebrale, responsabile della memoria, ma diversi nuclei e aree corticali che interagiscono fra di loro; non esiste una codificazione stabile delle memorie ma un loro continuo rimaneggiamento; non è infine possibile tracciare una netta linea di separazione tra attività puramente cognitive e attività essenzialmente emotive. Si profila così un'immagine della memoria e in generale della mente ben più complessa rispetto a quella schematizzata a grandi linee da Hebb, oggi alla base del cosiddetto « connessionismo » che guarda ai diversi aspetti delle attività cognitive in termini delle concatenazioni che si stabiliscono tra i neuroni, simili a quelle che sono alla base dei circuiti di un computer. Numerose teorie della mente di stampo funzionalista considerano il cervello umano come una macchina, sia pure una macchina particolare in grado di analiz2II
www.scribd.com/Baruhk
Neuroscienze e filosofia della mente
zare la realtà, risolvere problemi, strutturare il linguaggio sulla base di algoritmi, cioè di procedure logiche simili a quelle che sono alla base dell'intelligenza artificiale. Le concezioni funzionaliste della mente umana, che alcuni hanno ribattezzato col termine di « istruzionismo » per indicare la dipendenza della nostra mente da un ideale software, presentano in realtà alcuni punti deboli. Da un lato esse minimizzano il ruolo dell'ambiente che determina il significato di ciò che noi facciamo, diciamo, pensiamo: una frase o un'azione qualsiasi assumono infatti un significato diverso a seconda dell'ambiente in cui sono inserite; e poiché l'ambiente è aperto, sfaccettato, indeterminato e non ammette alcuna descrizione aprioristica che possa stabilire quali sono le procedure più efficaci di una strategia mentale, ne discende che ben difficilmente un programma può dare significato a ciò che facciamo o pensiamo se non si verifica una qualche interazione con la realtà ambientale. E i significati, come sostengono gli oppositori del funzionalismo, «non stanno nella testa ». Un secondo punto debole di molte teorie funzionaliste è quello di sposare la cosiddetta tesi della «intelligenza artificiale forte», presupponendo che le attività cognitive si basino su puri e semplici procedure logico-deduttive di tipo formale. I fautori della tesi « debole » sostengono invece che molte delle nostre attività cognitive si basano anche o soprattutto su forme di apprendimento tacito, difficilmente formalizzabili, in cui l'implicazione del corpo, delle emozioni, ecc. è notevole. Per esempio, per costruire artigianalmente una barca o scolpire il legno, si potrebbero forse dare alcuni diagrammi di flusso per operazioni molto elementari ma è difficile immaginare di poter fornire una formalizzazione completa per alcune operazioni in cui i movimenti del corpo, gli apprendimenti taciti e così via hanno un ruolo fondamentale. Insomma, chi sostiene la tesi debole ritiene che la netta scissione tra attività corticali-cognitive e corporee-emotive rappresenti un errore. Un altro punto debole di ordine biologico getta ombre su una descrizione essenzialmente funzionalista della mente: per dare forma al cervello e specificarne nei dettagli le « istruzioni » sarebbe infatti necessario un dettagliato programma genetico che stabilisse la struttura di quella immensa rete neuronale che si basa su circa cento miliardi di neuroni e migliaia di miliardi di connessioni nervose. Ora non soltanto è stato calcolato che l'insieme dei geni che costituiscono il nostro corredo ereditario sarebbe insufficiente a specificare esattamente la struttura delle reti nervose del nostro cervello, ma è stato anche osservato come i cervelli animali e umani siano estremamente variabili: in tal misura che ognuno di noi è fornito di un sistema nervoso pressoché unico, un fatto che getta delle ombre sulla possibilità che delle « macchine» talmente diverse possano rispondere a istruzioni simili. La teoria del «darwinismo neurale », proposta dal biologo Edelman (1987), si oppone a ogni ipotesi connessionista o determinista sulla base di una teoria biologica della memoria e della coscienza che si ispira alle teorie evoluzioniste di Darwin. In natura una particolare popolazione di animali o vegetali può essere selezionata dall'ambiente (il clima, la disponibilità di cibo, gli agenti infettivi) perché gli indi212
www.scribd.com/Baruhk
Neuroscienze e filosofia della mente
vidui che la compongono sono più o meno resistenti rispetto a quelli che formano altre popolazioni: avviene così che alcuni individui - o popolazioni - sopravvivano e altri soccombano. Anche i neuroni, indica Edelman, possono essere considerati come degli individui che appartengono a delle popolazioni, diverse le une dalle altre per le loro peculiari caratteristiche: un particolare stimolo che fa ingresso nel nostro cervello (visivo, acustico, ecc.) può quindi selezionare un gruppo di neuroni più adatti a riconoscerlo o, se volete, a resistergli o ad accettarlo. Secondo questa teoria, i messaggi che sin dalla nascita agiscono sul nostro sistema nervoso verrebbero decodificati da gruppi di neuroni più « adatti» che da quel momento si assoderebbero tra di loro in una rete nervosa in grado di trattenere la memoria di quello stimolo-evento e di riconoscerlo in futuro. Un evento si trasformerebbe quindi in memoria in quanto agirebbe su una particolare popolazione di neuroni che verrebbero «selezionati» da quell'esperienza, cioè dall'ambiente, nell'ambito della quasi infinita popolazione di neuroni disponibili: ma poiché ogni memoria è sfaccettata e ha aspetti diversi, ogni suo singolo aspetto verrebbe codificato a più livelli da diversi gruppi o popolazioni di neuroni, in grado di interagire tra di loro per ricostruire, in seguito, l'esperienza nel suo insieme. In tal modo un aspetto di un ricordo, per esempio un profumo particolare, potrebbe «innescare » il processo di ricostituzione di una particolare memoria: le sembianze di un viso, il timbro di una voce, l'emozione suscitata. Lo stesso meccanismo consentirebbe anche di codificare in una stessa popolazione di neuroni aspetti simili di realtà diverse: tramite questo processo di generalizzazione memorie diverse condividerebbero elementi comuni che potrebbero sovrapporsi generando incertezze, confusione, oblio. Questa teoria, come in generale altre teorie epigenetiche proposte da Changeux e da A. Danchin, indica come l'ambiente (cioè le esperienze) sia in grado di contribuire alla « costruzione » del cervello e come ogni cervello sia diverso da un altro, in quanto siamo geneticamente diversi e in quanto esperienze diverse, o anche la stessa esperienza, sono in grado di «costruire» dei circuiti nervosi diversi da individuo a individuo. Se si guarda in quest'ottica alle diverse funzioni del cervello e alle diverse attività mentali si può giungere a una concezione secondo cui i fattori genetici e quelli esperienziali, la biologia e l'ambiente, si fondono tra di loro e in cui la mente non risponde a un rigido « istruzionismo » ma a criteri fortemente plastici. VI
·
NEUROSCIENZE
E
TEORIE
DELLA
MENTE
In sostanza le teorie di Edelman tentano di elaborare un modello del mentale nell'ambito di un sistema concettuale unitario che spieghi il funzionamento del cervello e colmi la lacuna tra scienze naturali e scienze umane, rigettando sia il dualismo interazionista di Popper ed Eccles o quello di Penfield, sia il funzionalismo cognitivista prevalentemente centrato sul software anziché sulle caratteristiche strut213
www.scribd.com/Baruhk
Neuroscienze e filosofia della mente
turali del cervello, sia le teorie dell'identità sostenute da alcuni neuroscienziati e filosofi come Richard Rorty, J.-P. Changeux, Paul Churchland e in misura diversa da Vernon Mountcascle e Patricia Smith Churchland. ll pensiero di Edelman si inserisce nell'ambito di un « correlazionismo » che, sia pure in modi diversi, è stato già praticato da un altro neuroscienziato, John Z. Young (n. 1907), la cui attività è stata prevalentemente centrata sul sistema nervoso e sul comportamento del polpo (Octopus vulgaris). Nell'ambito di un approccio evoluzionista, che lo accomuna a Edelman, Young (n. 1907) ha studiato la memoria degli invertebrati arrivando alla conclusione che questa sia legata a delle unità mnestiche, i « mnemon », che implicano l'attività di circuiti in parallelo, formati da fibre nervose che interconnettono i neuroni, e da mutamenti sinaptici dovuti sia all'eccitazione nervosa provocata dall'informazione proveniente dai recettori sensoriali, sia alla presenza di catene « autorieccitantisi » che in qualche misura ricordano i fenomeni di «rientro» postulati da Edelman. Rigettando una piatta analogia tra intelligenze artificiali e intelligenze biologiche, lo scienziato inglese, che a lungo operò presso la Stazione Zoologica di Napoli, sostiene una teoria della« informazione semantica » secondo cui «l'informazione è la caratteristica di certi eventi fisici nei canali di comunicazione che consente la selezione tra numerose risposte possibili». Muovendo dalle teorie di F.C. Barclett e di K.J. Craik secondo cui l'apprendimento implica la formazione di un modello della realtà in ambito cerebrale, Young elabora quindi un modello cerebrale basato sulla presenza di moduli -legati alle diverse modalità sensoriali - deputati alle diverse caratteristiche del mondo esterno, in continua evoluzione anche grazie alla possibilità di formare continuamente sinapsi e collegamenti tra neurone e neurone, modulo e modulo. L'unificazione di una serie di processi determina un «modello del cervello» che è una rappresentazione del mondo, in continua evoluzione e fortemente individualizzata, dipendente dalle caratteristiche strutturali e funzionali del cervello, in particolare da quei processi « hebbiani » (Hebb, 1949) che sono alla base della formazione dei circuiti nervosi in rapporto all'esperienza e che sono stati studiati empiricamente dai neurobiologi nell'ambito della memoria e assunti alla base delle teorie funzionaliste delle «reti neurali ». Com'è evidente, le teorie della mente di Young presentano numerosi punti in comune con quelle di Edelman, anche se quest'ultimo ha approfondito il concetto, alla base del suo « darwinismo neurale », di «insieme » di neuroni responsabili di processi quali la generalizzazione e la categorizzazione sulla base dell'esistenza di popolazioni di neuroni che presentano simili caratteristiche strutturali o funzionali. Edelman, inoltre, ha espanso il concetto di «mappa », un insieme di formazioni e strutture nervose interconnesse, in grado di supportare crescenti livelli di coscienza, legati alle specifiche caratteristiche del sistema nervoso umano, in particolare alla presenza di aree linguistiche che, attraverso l'astrazione del linguaggio, consentono l'elaborazione di concetti quali l'io, il passato e il futuro, alla base dell'individualità e della storia umana. 214
www.scribd.com/Baruhk
Neuroscienze e filosofia della mente
Le teorie di Edelman, malgrado la loro ricchezza e suggestione, presentano scarsi riscontri empirici (nonostante siano stati fatti numerosi esperimenti di simulazione di tipo informatico) e si discostano dalla tendenza dei neuroscienziati ad affrontare specificamente singoli aspetti della funzione nervosa, rifuggendo dalla sfera dei significati e dal tema della coscienza, se non nei suoi significati prettamente neurofisiologici, legati cioè agli stati di coscienza, ai livelli di vigilanza, ai rapporti tra attività corticali e funzioni cognitive. Se si prescinde dal dualismo interazionista di Eccles e Popper secondo cui esiste una entità immateriale di natura metafisica che agisce sulla materia cerebrale senza violare la prima legge della termodinamica, grazie « a un flusso di informazioni, non di energia» non accertabile con gli strumenti dalla fisica, i neuroscienziati hanno privilegiato delle concezioni appartenenti alla teoria dell'identità, spesso permeate da un riduzionismo quasi provocatorio, come nel caso dei modelli mentali sostenuti da Changeux che identifica totalmente «le unità mentali con l'attività fisica di insiemi di neuroni ». Così la coscienza viene definita in termini di meccanismi che fanno passare da uno stato mentale all'altro: droghe come l'LsD, che stimolando la corteccia cerebrale producono allucinazioni, indicherebbero come un particolare stato di coscienza dipenda da alterazioni della chimica neuronale; così l'attenzione, il sonno, il sogno, dipendono dall'attivazione di nuclei della formazione reticolare, del talamo o della corteccia con la cui attività si identifica uno stato o livello di coscienza. La disponibilità delle tecniche di Brain imaging, come la PET (tomografia a emissioni di positroni) ha consentito, secondo Changeux, di iniziare a conoscere il rapporto che esiste tra struttura e funzione, il dipendere delle attività mentali dalle strutture nervose. Le teorie dell'identità propugnate da buona parte dei neuroscienziati sottolineano non soltanto una concezione riduzionistica della mente e della coscienza vicine ad alcune interpretazioni filosofiche - ma anche un'ottica diversa: mentre la maggior parte degli psicologi e degli studiosi della mente tiene separato il concetto di coscienza da quello di vigilanza, i neurologi, i neurofisiologi o gli anestesisti tendono invece ad assimilarli e confonderli, suggestionati da una dimensione operativa degli stati mentali. In realtà la vigilanza, anche detta crude consciousness, è una funzione del sistema nervoso che si svolge a più livelli, basata sull'entrata in gioco di diverse strutture cerebrali (la formazione reticolare, il talamo, il sistema limbico) e che caratterizza diversi stati mentali. li concetto di coscienza secondo l'ottica neurofisiologica procede di pari passo con gli studi sulla cosiddetta formazione reticolare: questa struttura nervosa che dal midollo allungato si irradia verso la corteccia e che ha i suoi nuclei di origine nelle strutture del tronco cerebrale e del mesencefalo, presiede ad attività cicliche e a stati fisiologici in cui vengono dispiegate o reintegrate le energie, come la veglia e il sonno, il riposo e l'attività. La stimolazione dei nuclei della formazione reticolare a livello del tronco cerebrale in un animale sveglio produceva uno stato di ipereccitazione, prossimo a quello che viene definito di confusione e che può essere indotto attraverso la sommini215
www.scribd.com/Baruhk
Neuroscienze e filosofia della mente
strazione di farmaci eccitanti come la caffeina o l'amfetamina. Per contro, le lesioni di alcuni nuclei della formazione reticolare si traducono in stati di sonno permanente o coma, mentre l'elettroencefalogramma denota un'attività simile al sonno e caratterizzata da onde elettriche di tipo « delta». A seconda dell'attività dei nuclei della formazione reticolare e del talamo si può verificare una transizione tra stati di coma profondo, coma, sonno profondo, sonno leggero, stati di confine (tra il sonno e la veglia), veglia rilassata, veglia vigile, eccitazione, confusione. Gli stessi Moruzzi e Magoun proposero che a diversi stati di attivazione della formazione reticolare corrispondessero diversi stati comportamentali o di coscienza, con una transizione dall'assenza totale di coscienza (il coma) a stati di coscinza appannata, vigile, confusa. La vigilanza, con i suoi diversi stati che consentono diversi «livelli » di coscienza, è però ben diversa dalla coscienza propriamente detta che sfugge a una localizzazione cerebrale, anche se diverse strutture nervose centrali possono contribuire alla sua complessa attività, e che rappresenta la capacità dell'io di vagliare e sintetizzare le esperienze del mondo esterno e interno, integrandole in un insieme di coordinate spazio-temporali. Una teoria della mente che si situa a metà strada tra il riduzionismo spinto che è alla base di teorie dell'identità quali quelle di Changeux e il « correlazionismo » di Edelman è quella proposta dal neurofisiologo Mountcastle. Sostenendo una concezione colonnare della corteccia cerebrale - formata cioè da unità multiple, moduli composti da neuroni sovrapposti - che rispecchia i dati sperimentali di Szentàgothai, di Hubel e Wiesel, di Asanuma e altri ricercatori, Mountcastle parla di moduli connessi in modo parallelo e seriale, dotati di molte entrate e uscite, « in cui l'informazione può seguire molti percorsi ma in cui la prevalenza di uno di loro modifica il sistema». La funzione di comando potrebbe pertanto essere esercitata da quella parte - modulo o insieme di moduli - «che possiede l'informazione più urgente e necessaria». I moduli, secondo Mountcastle, sono legati sia ai canali di afflusso ed efflusso dell'informazione sia a un'attività generata internamente a sistemi di informazioni « rientranti » che possono spiegare i meccanismi attraverso cui viene percepito l'Io, il suo rapporto col mondo nonché la coscienza: lo svolgersi «per cicli fasici dell'attività internamente generata [. .. ] e il suo accesso alla corteccia consentirebbe un aggiornamento continuo dell'immagine percettiva di sé e di sé-nel-mondo, come pure un paragone tra quella immagine percettiva e gli incalzanti awenimenti esterni». Le teorie di Mountcastle, che hanno trovato notevoli convergenze con quelle di Edelman, hanno contribuito a modificare le teorie dell'identità dei tipi in teorie dell'identità delle occorrenze: mentre nelle prime ciascun tipo di processo mentale veniva identificato con un tipo di processo cerebrale - o con una sede specifica - (per esempio dolori simili in individui diversi dipendono da processi e strutture simili), nelle seconde gli stati mentali si limitano a corrispondere a processi dinamici nell'ambito del sistema nervoso (in questo caso un dolore può far capo a strut216
www.scribd.com/Baruhk
Neuroscienze e filosofia della mente
ture e processi diversi). L'estrema variabilità individuale che caratterizza la struttura e la funzione nervosa diviene così un aspetto centrale nelle nuove teorie dell' identità delle occorrenze e poiché questa variabilità è il frutto, oltre che di regole genetiche, di esperienze e rielaborazioni dell'informazione che danno forma ai circuiti nervosi, queste teorie, spesso fuse a teorie correlazioniste, lasciano una porta aperta a una visione della mente basata su «modelli del cervello» che sono una rappresentazione del mondo legata a fini, valori, aspettative. VII
· MODELLI
DEL
CERVELLO
E
RAPPRESENTAZIONI
DEL
MONDO
Come è evidente da questo breve excursus, l'approccio delle neuroscienze allo studio delle diverse funzioni mentali è stato necessariamente riduzionistico e ha inizialmente puntato a chiarire la natura dei diversi « meccanismi » del cervello: è stata invece prestata minore attenzione ai modi in cui questi « meccanismi » cooperano e come dalla loro interazione emerga una mente che non deriva dalla semplice sommatoria di singole attività, separate tra di loro da compartimenti stagni. Così, mentre sono stati descritti i meccanismi dell'emozione, i neurotrasmettitori che ne sono alla base e i centri nervosi che vi sono coinvolti, i neuroscienziati non si sono soffermati su altri aspetti delle emozioni quali il loro significato, i loro rapporti con lontane esperienze, il modo in cui contribuiscono a dare un senso alla nostra esistenza, a orientare i nostri fini, a strutturare i nostri schemi mentali. Per tali motivi, anche se alcune teorie della mente tengono conto dei risultati che provengono dalle conoscenze neuroscientifiche, la mente cui guardano i filosofi è diversa rispetto a quella descritta dagli psicobiologi; questi ultimi sono sempre più in grado di descrivere il cervello e di comprenderne i meccanismi ma ancora lontani dal considerarlo in modo unitario, dal comprendere come dalla materialità dei circuiti cerebrali possa scaturire quel mondo dei significati che ci guida in ogni azione, anche la più banale, della vita quotidiana. Nonostante i progressi nell'ambito delle neuroscienze - o forse anche a causa loro - sembra persistere un contrasto tra il mondo dell'oggettività e quello della soggettività, quello dei meccanismi e quello dei significati: da un lato vi è lo scienziato che descrive un aspetto del comportamento, per esempio il desiderio sessuale, in termini di meccanismi nervosi coinvolti nelle motivazioni e nell'emotività, di centri nervosi responsabili del piacere, di ormoni sessuali alla base della libido, dall'altro l'Io che sente che il suo desiderio implica complessi turbamenti, passioni, fantasticherie che affondano le loro radici in precedenti esperienze e desideri, e che si sente investito dal suo desiderare in una dimensione conscia ma anche inconscia. È quindi lecito affermare che le neuroscienze tendono ad accertare la realtà naturale del cervello mentre la filosofia e la psicoanalisi sono impegnate a capire, a comprendere i significati, palesi o reconditi che essi siano? Esiste insomma una opposizione tra le scienze del cervello e le discipline della mente, le prime aderenti a 217
www.scribd.com/Baruhk
Neuroscienze e filosofia della mente
un'ottica naturalistica, le seconde a una umanistica, sulla base della classica antitesi vichiana tra le scienze naturali e quelle dell'uomo, della contrapposizione weberiana tra l' Erkliiren (l'accertare una realtà esistente, dotata di una sua evidenza e svincolata dai significati) e il Verstehen, la comprensione del significato? Una delle tematiche che è alla radice stessa della dicotomia mente-cervello è probabilmente quella relativa agli scopi che guidano il comportamento di un individuo: come può infatti un'idea, lo scopo appunto, influenzare la nostra azione fisica? Gli scopi e le intenzioni sono qualcosa di talmente implicito nei comportamenti umani da non venire generalmente esplicitati; sono talmente sottintesi in ogni aspetto del nostro agire, di ogni nostra attività mentale che, quando mancano oppure sono incongrui o non riusciamo a interpretarli in termini di razionalità, riteniamo che esistano dei disturbi della mente o che la vita di un individuo non abbia più senso. I biologi della mente si sono inizialmente opposti al concetto di scopo in quanto esso non si riferisce a quelle descrizioni fisiche in cui rientrano la struttura e le funzioni del cervello: ma negli ultimi tempi anche tra i neurofisiologi si è fatto strada un concetto implicito in quello di scopo, quello di modello cerebrale o di rappresentazione interna del mondo. Secondo Craik (1943), le cui idee hanno avuto una profonda influenza sulle teorie del cervello, nel nostro sistema nervoso vi sono dei meccanismi fisici che svolgono il ruolo di modelli interiori del mondo. È per loro tramite che percepiamo la realtà, pensiamo a essa, la modifichiamo ed è a questi modelli che devono fare capo le spiegazioni dei fenomeni psicologici perché è attraverso loro, cioè attraverso le rappresentazioni interiori, che possono essere spiegate le esperienze e le azioni di un individuo. L'esistenza di modelli interiori nell'ambito di un cervello umano o di un computer è stata inizialmente postulata con un preciso riferimento alla neurofisiologia dei movimenti. Per quanto questi possano apparire banali automatismi, sono in realtà improntati a complessi schemi che vengono realizzati attraverso selettive e differenziate azioni dei muscoli e degli arti. Senza uno schema generale, senza una visione di un particolare «mondo », non esistono possibilità di variare e adattare questi schemi motori a situazioni simili o diverse; pensiamo, per esempio, alle varietà stilistiche con cui vengono rappresentate le lettere dell'alfabeto, come la lettera «A»: ne esiste una versione in corsivo e una in stampatello, una versione in caratteri latini e una in stile gotico... Per realizzare queste diverse versioni la nostra mano deve compiere dei movimenti diversi a seconda della « A » che vuole tracciare: movimenti circolari o interrotti, linee continue o spezzate. Malgrado queste differenze motorie che implicano l'impegno di diversi muscoli e movimenti, le realizzazioni delle diverse forme di una stessa lettera rispondono a una comune idea, lo stesso schema mentale che ci porta subito a riconoscere che, sia pure in stili diversi, tutte quelle «A» rispondono a uno stesso significato. ll nostro cervello non ha bisogno di far capo a singole memorie per codificare esperienze simili ma le accomuna sotto uno stesso schema. È proprio nel campo 218
www.scribd.com/Baruhk
Neuroscienze e filosofia della mente
della memoria che Bartlett (1932) ha introdotto il termine «schema» per riferirsi a quell'organizzazione di esperienze e reazioni del passato che dà forma ad apprendimenti successivi. Il concetto di schema pervade in generale tutte le teorie della mente; per esempio, nella psicologia dello sviluppo Piaget lo intende come rappresentazione generalizzata di un insieme di situazioni che consente all'organismo di agire su un'intera gamma di situazioni analoghe; Marvin Minsky ha invece introdotto il termine /ram es (intelaiature) per indicare il bilancio che esiste tra quei contesti generali che includono la specificità della situazione in atto e il processo di costruzione di una rappresentazione ottenuta assemblando delle sottoparti già note: una sorta di bricolage della mente in cui, per costruire edifici diversi, vengono ricombinati dei blocchi di informazione simili. Il modello di schema più noto e incontrovertibilmente più incardinato su basi neurofisiologiche è tuttavia quello che si riferisce ai cosiddetti « meccanismi innati di scarica » (gli istinti) studiati dall'etologia: lo schema, in questo caso, è un « pacchetto » di informazioni trasmesse per via genetica che consente ai membri di una specie animale di reagire a un dato stimolo con una serie di azioni concertate e stereotipate. Per quanto il termine « istinto » sia oggi sgradito a molti etologi in quanto sembra escludere un ruolo dell'esperienza, esso ci rimanda a quella componente predeterminata e stereotipata del comportamento definita oggi col termine di «schema d'azione fisso» (FAP, fixed action pattern). Descritto da H. Moltz a partire dalla fine degli anni sessanta indica come gli animali, dopo aver interagito con gli stimoli ambientali ed essere sospinti da una pulsione interna (lo stato di fame, la motivazione sessuale, le necessità territoriali, ecc.) mettano in atto sequenze comportamentali che sono più o meno comuni a tutti i membri di una stessa specie, più o meno stereotipate e ripetitive. Per esempio, un falco uccide la sua preda tramite una rigida serie di movimenti, gli animali mettono in atto degli schemi di comportamento nei riguardi del partner, una femmina depone le uova o partorisce e ha cura dei piccoli attraverso comportamenti che dipendono da un programma preesistente, uno schema appunto, che si traduce in opportune interazioni con gli stimoli ambientali, in movimenti, azioni finalizzate, emozioni. Lo schema di un istinto è iscritto nei circuiti nervosi cosicché la stimolazione di specifiche aree del cervello attraverso una tenue corrente elettrica fa sì che l'animale metta in atto frammenti più o meno rilevanti di attività istintive: comportamenti alimentari (masticare, inghiottire), predatori (aggredire, uccidere, consumare), sessuali (corteggiare, copulare), ecc. Anche se nessun neurofisiologo ha per il momento descritto in tutti i suoi dettagli l'architettura delle strutture e dei modelli interiori (il programma) alla base degli schemi istintuali, gli studi condotti da W.R. Hess, J. Olds, W. Grossman e altri hanno dimostrato che vi sono delle sedi specifiche in cui essi sono depositati e che uno schema o modello cerebrale è implementato su una matrice nervosa, materiale. Non è quindi impossibile che anche i modelli cerebrali che sono alla base degli scopi, intenzioni, convinzioni e idee abbiano aspetti simili a quelli di altre forme di schemi, come avviene, per esempio, per gli istinti. 219
www.scribd.com/Baruhk
Neuroscienze e filosofia della mente
Alla luce di questi risultati, un esame della natura dei rapporti tra i modelli interiori cerebrali e i fenomeni mentali indica che anche nel caso in cui gli studiosi della biologia cerebrale conoscessero il cervello in ogni suo dettaglio, dovrebbero sempre utilizzare delle spiegazioni di tipo psicologico per comprendere i fenomeni della psiche: la psicologia non può essere ridotta a fisiologia - se con ciò si intende che una dettagliata conoscenza di tipo fisiologico significherebbe la fine di concetti quali scopi, idee, convinzioni, intenzioni - mentre si può ammettere che la psicologia sia riducibile a fisiologia quando ci limitiamo a intendere che gli scopi e altre entità di tipo psicologico fanno capo a realtà cerebrali, anziché essere categorie inesplicabili in termini scientifici. L'adesione a quest'ultimo principio (la riducibilità limitata - della psicologia a fisiologia) non implica necessariamente che un'eventuale conoscenza dei modi attraverso cui gli scopi sono incorporati nei meccanismi cerebrali possa esimerci in futuro da quei concetti attraverso cui esprimiamo ciò che è specificamente umano. Attraverso quali vie il cervello può esprimere concezioni del mondo e far sì che un individuo abbia degli scopi o metta in pratica dei « copioni », atteggiamenti generali attraverso cui interpretare e modificare la realtà? Per affrontare questo problema conviene soffermarsi sui due principali e opposti atteggiamenti con cui si è guardato al problema mente-cervello. Da un lato il cervello è stato considerato come un « rivelatore » della mente, un dispositivo in grado di connettere l'esistenza di un uomo con la sua esperienza soggettiva o, meglio, con la sua realtà spirituale. La mente e la coscienza del sé sono state spesso assimilate all'anima. In contrasto con le ipotesi spiritualiste, i sostenitori di un approccio naturalista hanno a volte guardato al cervello come a un sistema formato da un insieme di micro-organi specializzati, ognuno di essi responsabile di sensazioni, movimenti volontari, motivazioni, memorie, idee. Gruppi particolari di cellule nervose, disposti in particolari strutture cerebrali, sarebbero responsabili della produzione di speciali stati mentali e le funzioni mentali sarebbero delle proprietà elementari primarie, delle « capacità » del cervello: attraverso le associazioni tra le diverse singole capacità emergerebbero le funzioni mentali superiori. Ogni aspetto del comportamento ha - o avrebbe una sua sede specifica, il che rafforza l'antica concezione ottocentesca di un cervello «frammentato » in diverse aree e centri, ognuno dei quali responsabile di una specifica attività. Una frammentazione ancor più spinta viene postulata nell'ambito della scienza cognitiva che guarda al cervello come a una specie di alveare formato da singole cellette, ognuna funzionalmente autonoma. In realtà la situazione non è così semplice: abbiamo notato come una rigida localizzazione delle funzioni cerebrali si opponga ai concetti di plasticità, di individualità e di indeterminismo cosicché il tentativo di individuare le attività mentali in specifiche strutture cerebrali appare simile a quello di cercare di localizzare un'immagine nello specchio - o dietro lo specchio - che la riflette. Oggi sta lentamente tramontando una concezione dei rapporti tra mente e cer220
www.scribd.com/Baruhk
Neuroscienze e filosofia della mente
vello basata sulla coincidenza di una funzione mentale con i « micro-organi » specializzati: i processi mentali vengono invece considerati come complesse attività di analisi dell'informazione, in grado di riflettere la realtà. Nell'ambito dell'attività mentale le singole informazioni vengono collegate tra di loro e combinate per costruire dei progetti o programmi comportamentali che aderiscono a degli scopi: ogni funzione del cervello umano, dalla percezione alle stesse emozioni, rappresenta una sorta di attività funzionale che riflette il mondo esterno attraverso una continua analisi e riaggiornamento dell'informazione e che contribuisce a elaborare progetti e programmi. In questa complessa attività gioca un ruolo importante una parte del cervello che, rispetto agli altri primati, è tipica dell'uomo e che è formata dalle aree frontali e prefrontali, cioè le parti anteriori del cervello: esse sono implicate nel perseguimento di scopi, progetti e programmi di azione e la loro lesione, come avviene per alterazioni di tipo vascolare o in più rari casi di interventi chirurgici, comporta l'affievolirsi delle motivazioni e il disintegrarsi dei cosiddetti progetti diretti a un
fme. L'analisi dell'informazione, l'adattamento all'ambiente e il perseguimento degli obiettivi e delle «visioni del mondo » dipendono in sostanza dalla globale cooperazione dei diversi sistemi funzionali del cervello che sono strutturati sulla base di programmi e progetti incorporati nel corso dello sviluppo individuale nell'ambito di un particolare sistema sociale. Questa concezione dei rapporti mente-cervello va al di là della classica opposizione tra mentalismo e naturalismo in quanto ha una dimensione che non si limita a ridurre la mente alla sommatoria dei meccanismi cerebrali responsabili di elementari funzioni mentali: essa permette inoltre di superare il sogno di un facile riduzionismo neuroscientifico secondo cui la corrispondenza tra un evento mentale e il funzionamento del cervello sarebbe talmente stretta da permettere di giungere, col progredire delle tecniche e conoscenze, a conoscere le esperienze e la mente di una persona attraverso l'analisi del suo sistema nervoso. Considerate in tale ottica, le neuroscienze ci appaiono come uno strumento che sta rivelando le caratteristiche del sistema nervoso, dalla sua fisiologia ai suoi aspetti patologici, e una delle chiavi di lettura, ma non l'unica, della mente.
221
www.scribd.com/Baruhk
CAPITOLO
SESTO
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane DI
I
·
CONTINUITÀ
DALLA
SINTESI
E
MAURO CERUTI
DISCONTINUITÀ
NEODARWINIANA
EQUILIBRI
NELL'EVOLUZIONE. ALL'IPOTESI
DEGLI
PUNTEGGIATI
Secondo la definizione biologica delle specie, formulata dalla «nuova sistematica» e in particolare da Ernst Mayr negli anni quaranta, le specie sono gruppi di popolazioni naturali riproduttivamente isolati gli uni dagli altri, e il risultato di un processo di speciazione è l'isolamento riproduttivo. In tale prospettiva, le singole popolazioni di cui una specie si compone svolgono un ruolo cruciale nella creazione delle nuove specie. Una specie composta di popolazioni differenti e divergenti consente infatti di produrre uno spettro di materiale genico più ampio di quello che possiede una specie fortemente omogenea e in differenziata. La varietà e l' eterogenità delle varie popolazioni (e dei vari organismi) è una precondizione fondamentale della stessa evoluzione. La frammentazione di una specie in popolazioni distinte e distinguibili dipende soprattutto da ragioni geografiche. Quando una specie ha un vasto ambito di distribuzione si divide generalmente in popolazioni che abitano regioni differenti dello spazio complessivo. Talvolta, queste regioni sono separate da barriere geografiche, da aree poco propizie allo stanziamento degli individui della specie. Se una popolazione vive in un ambiente collinare, per esempio, è infrequente che essa affronti la savana sottostante per raggiungere le colline adiacenti. Talvolta, per di più, le popolazioni vengono separate da barriere che si creano ex nova: quando emerse l'istmo di Panama, molte popolazioni marine del Pacifico furono completamente separate dai loro consimili del Mar dei Caraibi. Non sempre, comunque, le barriere sono generate da grandi discontinuità geografiche o geologiche; possono anche essere barriere prodotte dalla vegetazione. L'uno o l'altro di questi fattori può in ogni caso far sì che, da un certo momento in poi, alcune popolazioni non abbiano più contatti con il resto della propria specie. Questa separazione è all'origine del processo di speciazione allopatrico («in altro luogo»). In questo processo, una nuova specie nasce e si sviluppa da una popolazione geograficamente isolata, composta da un numero relativamente pie222
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
colo di individui, e rimasta esclusa dalla continua ricombinazione dei patrimoni genetici che tiene uniti tutti i membri di una specie. In una popolazione estesa, la selezione gioca un ruolo stabilizzatore: la prevalenza statistica di combinazioni genetiche conformi alla norma tende a smorzare gli effetti delle ricombinazioni innovative che più si discostano da questa norma. Nel caso di una popolazione isolata e soprattutto nel caso in cui questa popolazione non oltrepassi una certa soglia dimensionale, le condizioni ambientali del suo habitat possono essere invece favorevoli alla diffusione di combinazioni genetiche innovatrici. Se mantenute per un periodo sufficiente, queste combinazioni possono generare divergenze fisiologiche, morfologiche e comportamentali che diventeranno la norma di una nuova specie. Così, le barriere geografiche diventano barriere riproduttive. Dopo un certo periodo di tempo, se agli organismi della popolazione divergente capiterà di rientrare in contatto con gli organismi di altre popolazioni della specie d'origine, le nuove barriere impediranno gli incroci reciproci. O, almeno, gli ibridi saranno poco vitali o sterili. La popolazione diventerà una nuova comunità riproduttivamente isolata: una nuova specie. Elaborata dallo stesso Mayr negli anni quaranta e cinquanta, la teoria della speciazione allopatrica è stata precisata, nei decenni successivi, da ulteriori ricerche, come quelle di Hampton Carson (1975). Fino a questi sviluppi, nella tradizione darwiniana era prevalsa l'idea che gli organismi individuali fossero le uniche « unità dell'evoluzione »: l'origine delle specie sarebbe dipesa solo dal lento scrutinio della selezione naturale sui genotipi e sui fenotipi degli individui, e quindi la frontiera tra una specie e un'altra specie non avrebbe potuto essere altro che un'astrazione dovuta alla comodità tassonomica, all'incompletezza della documentazione paleontologica, all'impossibilità di registrare in dettaglio tutti gli eventi della storia naturale. Per la teoria della speciazione allopatrica, l'origine e la fine di una specie sono al contrario eventi localizzati e la specie è un'entità ben delimitata. La «filiazione» (a un certo punto della sua storia una specie può dare origine a una specie discendente), la « nascita» (l'emergenza di una nuova specie dalla specie ancestrale) e la «morte» delle specie (l'estinzione: tutti gli individui che compongono una specie muoiono senza lasciare discendenti) consentono di parlare delle specie come di entità storiche, autorganizzatrici e metastabili, dotate di un'identità autonoma. Ma tale identità non è definita dalla presenza costante di uno o più caratteri, di uno o più gruppi di caratteri: i caratteri e i gruppi di caratteri evolvono, sorgono e vengono meno. L'identità è definita, invece, dal mantenimento di una coesione e di un'organizzazione interne attraverso ininterrotti cambiamenti. La definizione biologica di specie e la teoria della speciazione allopatrica hanno portato a considerare le specie come «individui di secondo livello», sovrasistemi che integrano gli organismi (individui) del primo livello. Negli anni settanta, David Hull e Michael Ghiselin hanno fatto un passo decisivo in questa direzione. Per loro, 223
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
la nozione di « individuo biologico » si riferisce non solo ai singoli organismi, ma anche alle specie, intese come entità discrete localizzate spazio-temporalmente, caratterizzate e tenute insieme dai flussi dell'informazione genetica. Naturalmente, la specie è un individuo di tipo particolare, e la questione del significato e dell'identificazione dei suoi limiti spaziali e temporali è aperta e controversa. Nel 1972, Niles Eldredge e Stephen J. Gould hanno delineato l'ipotesi degli equilibri punteggiati, mettendo in discussione la concezione prevalente nella tradizione darwiniana circa i modi e i tempi in cui si originano le nuove specie. Questa concezione neodarwiniana, nota come gradualismo filetico, aveva sistematizzato la concezione continuista già prevalente nell'opera di Darwin. I suoi principi base sono i seguenti. r) Le nuove specie si originano dalla trasformazione di specie antenate o ancestrali, attraverso la combinazione della selezione naturale e delle mutazioni del genoma. 2) La trasformazione segue un ritmo temporale uni/orme, lento e graduale. Natura
non facit saltus. 3) La trasformazione coinvolge tutta quanta la specie ancestrale, o, comunque, una grande porzione delle popolazioni che compongono la specie ancestrale. 4) La trasformazione ha una distribuzione spaziale unzforme. Avviene in tutte, o in gran parte delle aree geografiche in cui vive la specie ancestrale. Con l'ipotesi degli equilibri punteggiati, Eldredge e Gould hanno messo in discussione tutti questi principi del gradualismo filetico. I principi alternativi su cui si fonda la loro ipotesi sono i seguenti: « r. Le nuove specie sorgono in seguito a una scissione della linea evolutiva. 2. Le nuove specie si sviluppano rapidamente. 3· All'origine della nuova specie si trova una piccola sottopopolazione della forma ancestrale. 4· La nuova specie si origina in una parte piccolissima dell'ambito di distribuzione geografica della specie ancestrale, in un'area isolata alla periferia di questo ambito 1 ». Secondo l'ipotesi di Eldredge e Gould, nella vita delle specie si alternano il più delle volte lunghi periodi di stasi e periodi brevi di rapidi mutamenti. Nei lunghi periodi di stasi, che in genere durano alcuni milioni di anni, una specie è un'entità stabile: nei patrimoni genetici e nei fenotipi degli individui che la compongono hanno luogo innumerevoli fluttuazioni locali, ma queste fluttuazioni non generano nuove specie. Al contrario, quasi tutte le novità rilevanti dell'evoluzione sono concentrate in periodi di rapido cambiamento, che nella sostanza corrispondono alle speciazioni per isolamento geografico già identificate da Mayr. A essere interessata
1 N. Eldredge e S.J. Gould, 1972; trad. it. 1991, p. 237.
224
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
dal cambiamento evolutivo, quindi, non è tutta la specie originaria, bensì solo una popolazione che abita un ambito ristretto del campo di distribuzione originaria della specie ancestrale, che si scinde da quest'ultima. I periodi di cambiamento sono quasi istantanei (sul piano geologico): sembrano corrispondere a circa l'x per cento dell'esistenza complessiva di una specie. Molte specie, nel corso della loro intera esistenza, mostrano una stabilità impressionante: talvolta è perfino impossibile trovare un indizio dell'ordine cronologico nell'aspetto esterno di esemplari fossili che, pure, altri metodi di datazione fanno ritenere separati da milioni di anni. Nel corso di gran parte dell'esistenza delle specie animali, i fattori stabilizzatori dell'evoluzione hanno la meglio. Le tendenze che possono sorgere si smorzano, o si controbilanciano l'una con l'altra. L'ipotesi degli equilibri punteggiati nega che le tendenze e gli esiti della speciazione siano un prolungamento delle tendenze in atto nei periodi di stasi. Le rapide fasi di cambiamento, in cui si alimenta la divergenza evolutiva di una specie incipiente rispetto alla specie genitrice, dipenderebbero in modo decisivo da contesti spazio-temporali particolari. Il processo di speciazione allopatrica avrebbe luogo in contesti che rendono decisiva la singolarità dei patrimoni genici degli organismi, parzialmente o totalmente sottratti alle spinte del patrimonio genetico complessivo della specie. La sintesi neodarwiniana aveva aderito all'interpretazione <;he lo stesso Darwin aveva dato delle discontinuità dei reperti fossili: una misura dell'incompletezza della documentazione fossile, un'indicazione del potere distruttore del tempo. Al contrario, i sostenitori dell'ipotesi degli equilibri punteggiati interpretano le discontinuità dei reperti fossili come testimonianze vincolanti. Ritengono che sia possibile gettare nuova luce sulla natura dell'evoluzione considerando reali (sulla base di quanto mostrano i reperti fossili) le stasi prolungate e le comparse subitanee di nuove specie. Se una nuova specie appare improvvisamente e compiutamente formata, non è necessario ipotizzare molti stadi di un lento processo formativo ignoto, e neppure una serie di cataclismi che avrebbero cancellato le tracce di questo processo. Al contrario, è plausibile che i reperti paleontologici delineino un quadro affidabile delle fasi immediatamente successive all'evento della speciazione: fasi in cui la nuova specie inizia a espandersi a partire dalla sua nicchia originaria e in cui talvolta si trova a popolare anche luoghi abitati dalla specie parentale, coesistendo con essa o addirittura soppiantandola. Le ricerche stimolate dagli sviluppi della nuova sistematica e dalla formulazione dell'ipotesi degli equilibri punteggiati hanno mostrato che i modi della speciazione sono più differenziati e articolati di quanto non si credesse. Alla speciazione geografica (allopatrica) è attribuito ancora un ruolo rilevante, ma questo ruolo non è più esclusivo. Sono stati identificati altri modi di speciazione, per i quali le divergenze evolutive e l'innalzamento di barriere riproduttive non dipendono da ragioni geografiche; o, almeno, non dipendono soltanto da ragioni geografiche. Si è parlato di speciazione simpatrica, nei casi in cui la popolazione sede del processo di specia225
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
zione convive nella stessa area con altre popolazioni della specie originaria, occupando differenti nicchie ecologiche. Si è parlato di speciazione parapatrz"ca, nei casi in cui le popolazioni sono differenziate geograficamente, ma posseggono una stretta area di contatto in cui gli individui si incontrano e, talvolta, si ibridano. È stata inoltre studiata la possibilità che taluni processi di speciazione dipendano da mutamenti strutturali del patrimonio cromosomico delle specie. Ma anche questi altri modi di speciazione condividono un aspetto cruciale della speciazione allopatrica, evidenziato sia da Mayr, prima, sia da Eldredge e Gould, poi. La produzione di una nuova specie dipende in ogni caso da due condizioni critiche: velocità del processo e ristrettezza delle dimensioni della popolazione sede del processo di speciazione. Negli ultimi vent'anni, la comunità scientifica è divisa intorno alla seguente questione: il modello degli equilibri punteggiati corrisponde alla regola o all'eccezione? Chi resta fedele al continuismo darwiniano e neodarwinano non nega che all'interno del flusso dell'evoluzione possano darsi momenti di discontinuità. Tende però a ridurre la rilevanza e l'impatto degli aspetti discontinui dell'evoluzione, sostenendo che non è indispensabile ricorrere a essi per spiegare le grandi svolte e le grandi innovazioni dell'evoluzione. Viceversa, i fautori dell'ipotesi degli equilibri punteggiati non ritengono che il modello del gradualismo filetico sia impossibile o implausibile. Ritengono però che nella maggior parte dei casi i cambiamenti graduali siano troppo lenti per poter generare l'alto grado di diversificazione morfologica spesso manifestata anche da specie separate da un periodo assai breve su scala geologica. Così, essi sostengono che di questa diversificazione debbano essere responsabili proprio quei processi di rapida speciazione che la sintesi neodarwiniana aveva invece sottovalutato. L'ipotesi degli equilibri punteggiati, inoltre, propone interpretazioni alternative di molte svolte della storia naturale, che risultavano enigmatiche alla luce del continuismo darwiniano. Secondo tale ipotesi, per esempio, è possibile che all'inizio del Cretaceo le piante dotate di fiori, le angiosperme, si siano realmente differenziate nel breve (su scala geologica) periodo di tempo di w milioni di anni. Ed è possibile vedere sotto una nuova luce anche l'enigma dell'esplosione cambriana, cioè la grande proliferazione di forme animali che nel volgere di alcuni milioni di anni (attorno ai 570 milioni di anni fa) popolarono i mari del Pianeta. Al tempo di Darwin (e ancora fino alla metà del nostro secolo) non si conoscevano resti fossili di organismi pluricellulari precambriani. Ciò contrastava singolarmente con i primi resti fossili del periodo Cambriano, che indicavano la presenza di organismi estremamente evoluti e diversificati. Con grande onestà intellettuale, Darwin rilevò che i dati della paleontologia del suo tempo avrebbero potuto essere utilizzati per contestare la concezione evoluzionista stessa. La replica di Darwin fece ricorso proprio all'ipotesi gradualista: la mancanza di fossili di organismi precambriani dipendeva dal fatto che soltanto nel Cambriano gli organismi avrebbero iniziato a possedere conchiglie, scheletri o altre parti dure in grado di essere meglio conservate. Nell'era 226
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
Precambriana sarebbero esistiti soltanto organismi a corpo molle, « anelli intermedi » per sempre scomparsi a causa della deperibilità del materiale fossile. L'ipotesi degli equilibri punteggiati, al contrario, porta a considerare l'esplosione cambriana un evento reale, e a intepretare i fossili come indizi affidabili dei tempi dell'evoluzione, facendo cadere la necessità di ipotizzare una lunga preistoria piena di organismi a noi sconosciuti. II
· ADATTAMENTO
E
OPPORTUNISMO
NELL'EVOLUZIONE
Darwin, nel proporre la teoria della selezione naturale, sostenne che le variazioni fra individuo e individuo di una stessa specie risultano determinanti per l'evoluzione futura, perché individui e specie sono immersi in un'ecologia caratterizzata da una cronica penuria di risorse. Gli individui e le specie si fanno spazio a spese di altri individui e di altre specie: la competizione prevale sulla cooperazione. Gli individui che escono vincitori dalla lotta, che riescono non soltanto a sopravvivere, ma anche a trasmettere i propri caratteri alle generazioni successive, sono gli individui più adatti (/it) o, se vogliamo, gli individui meglio adattati (adapted) alle condizioni ambientali. E poiché l'ambiente è sempre mutevole, l'adattamento non è un semplice stato: individui e specie sono costantemente costretti a percepire e a seguire le direzioni del mutamento ambientale. Negli sviluppi successivi, è prevalsa la tendenza a interpretare l'adattamento quale adattamento progressivo, miglioramento o convergenza verso uno stato attimale di questo o di quel carattere. Con il tempo, gli organismi diverrebbero sempre più adattati. Caratteri, forme, comportamenti degli organismi si sarebbero evoluti espressamente per svolgere una funzione univoca e prestabilita. All'adempimento, nella forma più adeguata possibile, di questa funzione essi dovrebbero le ragioni della loro comparsa, del loro mantenimento e del loro sviluppo. Questa immagine dell'evoluzione è stata messa in discussione negli ultimi trent'anni. Forti limiti alla quasi onnipotenza attribuita dalla tradizione darwiniana alla selezione naturale e all'adattamento erano del resto già apparsi a partire dalle ricerche sui tempi e sui modi della speciazione. Nella speciazione allopatrica, infatti, quando una popolazione di piccola taglia si trova isolata e quindi separata dalla gran parte dei suoi consimili, il ruolo della competizione può trovarsi drasticamente ridotto. Ed è possibile che gli aspetti innovativi della specie incipiente abbiano ben poco a che fare con questioni di adattamento e di selezione, e dipendano invece in maniera critica dalle caratteristiche singolari di pochissimi individui (al limite, di una coppia sola) della popolazione isolata. Per rendere conto di questa particolarità dei processi di speciazione, lo stesso Mayr aveva formulato il principio del fondatore: «La variabilità ridotta della piccola popolazione non sempre è dovuta a una perdita genetica accidentale, ma talvolta al fatto che l'intera popolazione sia stata originata da un'unica coppia o da un'unica femmina fertilizzata. Questi "fondatori" 227
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
della popolazione portavano con sé solo una piccolissima porzione della variabilità della popolazione genitrice2 ». Anche quando sono in gioco, l'adattamento e la selezione naturale si riferiscono comunque all'ambiente ristretto e particolare in cui si trova la popolazione di piccola taglia, e non all'ambiente complessivo della specie genitrice. Nell'evento di speciazione avremmo quindi non una progressione del processo di adattamento della specie genitrice, ma, al contrario, una rottura di tale processo. Darwinismo e neodarwinismo ritenevano che le ragioni della diffusione o dell'insuccesso di un dato gene fossero in ultima istanza riconducibili al suo valore positivo o negativo rispetto alle pressioni della selezione naturale. Certo, quasi tutti i geni sono polimorfici: in una data popolazione coesistono individui con differenti varietà alleliche di un medesimo carattere. Ma, agli occhi della concezione neodarwiniana prevalente, il polimorfismo di un carattere appariva come una situazione transitoria, una fase di passaggio che accompagnerebbe la diffusione e il successo della varietà dotata (nel momento particolare) di un valore evolutivo positivo (o del valore evolutivo più positivo). Nel 1950, il genetista H.J. Muller argomentò che, dato che ogni varietà allelica ha un valore selettivo differente, una sola di queste sarebbe la «migliore » e in quanto tale destinata a diffondersi nella specie. A suo avviso, dunque, qualora fosse possibile elaborare la mappa genetica di una specie, quasi tutti gli individui risulterebbero omozigoti per quasi tutti i geni. La selezione naturale avrebbe sostanzialmente il compito di eliminare tutte le varietà alleliche « inferiori» prodotte dai processi di mutazione. Ma ben presto fu messa in discussione l'idea stessa che a essere selezionati, e quindi ad avere un valore adattativo particolare (positivo o negativo), siano singoli tratti o singoli caratteri, corrispondenti a singoli geni sul piano molecolare. Theodosius Dobzhansky e Mayr sostennero che nessun gene può possedere di per sé un valore evolutivo, e che questo dipende sempre dalle combinazioni d'insieme (nel genoma e nell'organismo) di cui il gene si trova a far parte: «migliore » è una questione di contesto. Era allora plausibile che in una popolazione la frazione di individui eterozigoti per molti geni fosse in realtà rilevante. Negli anni sessanta e settanta diventò effettivamente possibile misurare le varianti geniche di una specie. n risultato fu allora esattamente contrario alle aspettative di Muller: gran parte dei geni di una popolazione possono avere più di una variante, e gran parte degli individui sono eterozigoti per molti geni. Lo studio dell'evoluzione delle proteine, in particolare, portò a supporre che il polimorfismo proteico fosse la norma piuttosto che l'eccezione, perché le varianti molecolari di una particolare combinazione genica che si diffondono nel patrimonio di una specie sono spesso neutre rispetto all'azione della selezione naturale. Quindi, allorché non ci siano ragioni stringenti che conducano all'eliminazione di 2 E. Mayr, 1942, p. 237.
228
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
talune varietà e alla prevalenza di altre, molte varietà alleliche differenti di un medesimo gene possono coesistere per lunghissimi periodi. La concezione neutralista dell'evoluzione, elaborata da Motoo Kimura, ha tratto le conseguenze più estreme (e più contestate) di questa evidenza, generalizzando l'ipotesi del polimorfismo senza valore selettivo e asserendo che gran parte del patrimonio genetico di una specie sarebbe in realtà « invisibile » alla selezione naturale. Le critiche più pertinenti rivolte a Kimura non negano la presenza di questi aspetti neutrali nell'evoluzione molecolare, quanto piuttosto la loro presunta prevalenza. Richard Lewontin, inoltre, ha mostrato come la presenza di diverse varietà alleliche di uno stesso gene possa avere essa stessa un'origine selettiva, dato che in molti casi è possibile che una condizione genica eterozigote abbia maggiore fitness di una condizione genica omozigote. n dibattito sul neutralismo ha in ogni caso messo in discussione l'assoluta preminenza accordata dalle teorie darwiniana e neodarwiniana ai cambiamenti adattativi. Un'altra critica alla preminenza unilaterale concessa alle spiegazioni adattazioniste è al centro di un importante articolo di Gould e Lewontin, The spandrels o/ San Marco and the panglossian paradigm: a critique o/ the adaptationist programme (1979). Gould e Lewontin pongono in discussione l'atteggiamento di fondo del darwinismo nei confronti della questione dei fattori dell'evoluzione. Invece di ricercare un unico modello in grado di rendere conto di tutti i meccanismi dell'evoluzione, nella loro prospettiva diventa più economico riconoscere e indagare la pluralità dei fattori dell'evoluzione. Diventa cioè necessario operare discriminazioni caso per caso. La loro ipotesi è che fra selezione e adattamento non ci sia sempre e soltanto una connessione diretta e univoca. Al contrario, molteplici sarebbero i modi con i quali selezione e adattamento possono combinarsi fra loro. Per Gould e Lewontin, nell'evoluzione si possono riscontrare anche i seguenti nessi fra selezione e adattamento: a) assenza di selezione e di adattamento: i caratteri sono il prodotto di derive casuali; b) assenza di selezione e di adattamento per quanto riguarda il carattere direttamente in questione, che invece deve la sua forma e la sua evoluzione a un effetto indiretto, conseguente a una selezione su altri caratteri; c) rottura del nesso fra selezione e adattamento: può avere luogo sia una selezione senza adattamento, sia un adattamento senza selezione; d) sia l'adattamento che la selezione hanno contemporaneamente luogo, ma la selezione non è in grado di fornire criteri per decidere, fra diversi tipi di adattamento, quale sia il migliore; e) l'adattamento e la selezione seguono una strategia opportunistica, che utilizza in modo secondario il materiale già presente per ragioni di architettura complessiva (vincoli fisici) o di storia evolutiva precedente. La critica di Gould e Lewontin al programma adattazionista richiede di ripensare le relazioni fra organismo e ambiente, fra parti e tutto. L'idea che domina le 229
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
attuali immagini dell'organismo e del genoma non è più l' ottimalità dell'evoluzione, ma, al contrario, l'opportunismo dell'evoluzione. Per esempio, alla domanda « Perché gli esseri umani, i primati, i mammiferi, tutti i vertebrati terrestri hanno quattro arti? » un adattazionista convinto potrebbe rispondere che questa struttura deriva da un progetto ottimale che tiene conto delle condizioni fisiche e ambientali della loro locomozione. Gould ha fatto però notare (On the evolutionary biology o/ contraints, 1981) che questa spiegazione prescinde dal fatto che gli arti dei vertebrati discendono dalle quattro pinne di un pesce ancestrale, che non avevano niente a che fare con la locomozione: il piano strutturale dei mammiferi è un'eredità della storia, non un progetto lentamente migliorato da processi di prova ed errore. In questa prospettiva, nell'universo del vivente non c'è nessun agente, fosse pure la selezione naturale, che operi vagliando tutte le strutture astrattamente possibili e attualizzando le migliori. Le forme degli organismi dipendono anche dai vincoli della storia passata, i quali possono entrare in disaccordo con le richieste ambientali correnti. Questa è una grande forza dell'evoluzione, non una debolezza: è la fonte prima della sua flessibilità. Proprio perché nessuna specie è adattata in modo ottimale, ciascuna specie possiede, nel genoma degli organismi che la compongono, una gamma ricca e discordante di potenzialità che si rivelano vitali per la sopravvivenza e per il successo futuri. Gli organismi riescono a risolvere i loro problemi pur avendo a disposizione materiali eterogenei e disparati, la cui origine il più delle volte non è correlata alle loro necessità presenti. Gli organismi viventi non sono sistemi composti da parti armonicamente unificate, appartenenti a un unico piano o adeguate a un medesimo fine. Sono invece composti di parti che hanno storie differenti, che sono state «progettate» per fini diversi e talvolta contrastanti, e che hanno origine in ere o in tempi lontani. Gli organismi, nel corso della loro storia, devono affrontare molti problemi di coesistenza fra le parti, gli organi, i comportamenti di cui sono costituiti. Il premio Nobel francese François Jacob (n. 1920) ha paragonato l'evoluzione all'opera di un bricoleur che accumula tutto ciò che trova per farne prodotti nuovi. Il bricoleur, abile ma non onnipotente, con materiali eterogenei, spesso di scarto e risultanti dallo smontaggio di meccanismi in cui servivano a tutt'altre finalità, riesce a produrre meccanismi originali che funzionano bene, ma di cui nemmeno lui avrebbe potuto prevedere in anticipo le possibilità e i limiti: ciò che sapranno fare e ciò che non potranno fare. L'ipotesi del bricolage evolutivo è applicabile a molti casi di costruzione di piani macroscopici e morfologici degli organismi: per esempio, il polmone dei mammiferi è stato costruito utilizzando quello che originariamente era un pezzo di esofago. Lo stesso Jacob ha d'altra parte introdotto l'idea di bricolage molecolare per indicare come le discontinuità evolutive che separano le specie e le forme viventi siano soprattutto una questione di organizzazione: dipenderebbero in larga misura da una differente distribuzione degli stessi costituenti chimici, da una diversa uti230
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
lizzazione della medesima informazione strutturale, dai mutamenti dei circuiti regolatori che accelerano o rallentano il tasso di crescita dei tessuti o il tempo di sintesi delle proteine. L'idea di bricolage molecolare consente di meglio valutare una delle scoperte più interessanti e sorprendenti della biologia degli ultimi decenni. Di tutto il DNA presente nei cromosomi, soltanto una minima frazione partecipa alla sintesi delle proteine. La massima parte (fino al 95%) di questo DNA non ha funzioni apparenti. Nel nucleo cellulare, sequenze di DNA identiche sono ripetute anche centinaia o migliaia di volte, spesso disperse fra i cromosomi. Di più: probabilmente, negli organismi superiori nessuna sequenza di DNA, nessun gene, ha soltanto una copia. Il DNA supplementare è stato definito « DNA egoista » da W.F. Doolittle e C. Sapienza (1980), ma è più noto attraverso la sua denominazione scherzosa: junk DNA, «ciarpame», materiale di scarto. Tuttavia, sono proprio queste sequenze ripetute a rendere ridondante la struttura degli acidi nucleici. Moltissime sequenze del DNA codificano una medesima proteina. Ciò consente a molte sequenze di variare e di acquisire una nuova funzione, senza nessun danno per la funzione per cui erano sorte originariamente. La funzione del junk DNA è inestimabile: è la principale riserva di variabilità su cui possano contare le specie nell'evoluzione futura. III LA
·
PLURALISMO
EVOLUTIVO.
TEORIA
GERARCHICA
DELL'EVOLUZIONE
Le prospettive desunte dalla genetica di laboratorio e dalla biologia molecolare avevano portato per molti anni a quasi identificare la tradizione evoluzionistica con una teoria della microevoluzione, una teoria dei cambiamenti microevolutivi delle frequenze geniche osservabili (o inducibili) in laboratorio e in popolazioni locali. Già nel 1937 Alfred Kinsey si oppose a quei genetisti secondo cui «la genetica di laboratorio può spiegare la natura e l'origine delle razze mendeliane, ma non delle specie naturali» o secondo i quali « le qualità delle categorie di ordine superiore devono essere spiegate su basi differenti da quelle che entrano in gioco nel caso delle specie. [. .. ] Al contrario, studi tassonomici recenti e analisi sperimentali del tipo di quelle condotte sulle specie naturali indicano come la genetica mendeliana presenti tutti i meccanismi ereditari necessari sia per l'evoluzione delle specie sia per l'evoluzione delle razze di laboratorio ». 3 Un tale programma si definì più precisamente con la formulazione della cosiddetta assunzione sintetica. Tutti i fenomeni microevolutivi sarebbero riconducibili in linea di principio agli schemi esplicativi della microevoluzione: « I mutamenti macroevolutivi aggiuntivi possono essere spiegati completamente dai meccanismi microevolutivi noti e [. .. ] non esistono meccanismi aggiuntivi o speciali. La microevoluzione e la macroevoluzione costituiscono un continuum di cambiamento ». 4 3 A.C. Kinsey, 1937, p. 208.
4
W.J. Bock, 1970, p. 705.
231
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
Nella prospettiva delineata dall'ipotesi degli equilibri punteggiati, l'assunzione sintetica è stata messa in discussione. Ammesso che i meccanismi genetici sottostanti alla macroevoluzione siano gli stessi meccanismi sottostanti alla microevoluzione, non è comunque vero che sia possibile cogliere tutte le entità e tutti i processi della storia naturale attraverso il solo esame di entità e processi che stanno sotto i nostri occhi, oppure che sono isolabili in laboratorio. Questa critica è alla base della teoria gerarchica dell'evoluzione, che contesta la semplificazione antologica neodarwiniana, estendendo il pluralismo evolutivo non solo ai temp~ ma anche alle unità dell'evoluzione. In tale prospettiva, le specie costituiscono un livello gerarchico che non è né convenzionale né subordinato allivello dei singoli organismi, e tanto meno al livello dei geni. Detto in altri termini: gli eventi che hanno luogo a un livello del sistema complessivo non possono essere dedotti o previsti dalla conoscenza dei processi in atto ad altri livelli del sistema stesso. La teoria gerarchica dell'evoluzione si colloca agli antipodi di un'altra interpretazione della tradizione darwiniana, definibile come « ultradarwinismo », che ha trovato in George Williams (Adaptation and natura! selection, 1966) il suo iniziatore e in Richard Dawkins (The selfi'sh gene, 1976) il suo sistematizzatore. Questa interpretazione resta fedele allo spirito di semplificazione antologica di impronta positivista e consonante agli sviluppi prevalenti del neodarwinismo, ma non ne condivide la particolare risposta da dare alla questione di quale sia l'unità fondamentale selezionata nell'evoluzione. Tale unità non sarebbe né l'organismo individuale, né tantomeno la specie, ma il gene. Per Dawkins, organismi individuali e specie sono entità troppo grandi, troppo temporanee, troppo poco connesse. Sono emergenze transitorie, generate dalla ricombinazione di ciò che permane: l'informazione contenuta nel genoma e trasmessa di generazione in generazione. La teoria gerarchica è invece un proseguimento dell'espansione della nozione di « individuo biologico » prodotta dal filone di pensiero che va da Mayr a Hull e a Ghiselin. Questa espansione ha luogo sia in direzione upward (popolazioni e specie), sia in direzione downward (livello molecolare). In tale prospettiva, le unità dell' evoluzione sono molteplici, e sono caratterizzate da differenti tempi e modi di nascita, di sviluppo, di cambiamento, di disgregazione. Sarebbe proprio l'interazione fra questi tempi e fra questi modi differenti a dare origine alla «plaga lussureggiante » del mondo vivente. Nel binomio «mutazione/selezione naturale», che riassume la received view della sintesi neodarwiniana, è implicita un'immagine dell'organizzazione biologica monodirezionale e a due livelli: il materiale grezzo dell'evoluzione sarebbe fornito dalle mutazioni che hanno nel genoma e verrebbe poi organizzato dalle pressioni esercitate dalla selezione naturale sui fenotipi degli organismi individuali. In questa prospettiva, i gruppi, le popolazioni e le specie sono considerati convenzionali; d'altra parte, il genoma appare una sorta di scatola nera, di limite inferiore ai processi evolutivi, quali avrebbero propriamente luogo al solo livello degli organismi individuali.
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
Al contrario, l'ipotesi fondamentale della teoria gerarchica dell'evoluzione è che la selezione possa aver luogo a differenti livelli. È possibile identificare anche una selezione di « gruppi », nella quale le entità selezionate non sono singoli individui, ma gruppi di parentela, popolazioni o altre collettività del medesimo livello: di questa selezione il caso più importante è d'altronde la selezione di specie, per cui le speciazioni e le estinzioni più o meno frequenti a livello delle singole specie conducono alla maggiore o minore fecondità e persistenza di rami evolutivi più ampi a cui le stesse specie appartengono. D'altra parte, è altrettanto possibile identificare processi selettivi in atto anche ai livelli sottostanti gli organismi individuali, compreso il livello molecolare. Su questo punto la teoria gerarchica riconosce molti processi messi in evidenza dagli ultradarwinisti, ma definisce in modo radicalmente diverso il contesto della loro interpretazione. Secondo la teoria gerarchica, molti sono i processi evolutivi che dipendono da una rete di interazioni fra differenti livelli della gerarchia: sugli organismi individuali convergerebbero tipi diversi di processi selettivi. La selezione di specie e la selezione molecolare possono avere effetti significativi anche allivello degli organismi individuali e combinarsi con gli effetti della selezione naturale in senso stretto. Elisabeth S. Vrba e Gould hanno elaborato una classificazione dei vari tipi di interazioni all'interno della gerarchia. Hanno confrontato i tre diversi tipi di selezione (la selezione naturale in senso stretto, che opera al livello degli organismi individuali, la selezione di specie e la selezione molecolare) e hanno individuato casi di causalità all'insù (upward: la selezione al livello meno elevato ha effetti ai livelli più elevati) e di causalità all'ingiù (downward: la selezione al livello più elevato ha effetti ai livelli meno elevati). La selezione di specie influisce necessariamente sui livelli inferiori della gerarchia. Invece, la selezione molecolare può produrre effetti significativi al livello degli organismi individuali: ma non sempre gli effetti della selezione molecolare sono visibili al livello degli organismi individuali. Molti di tali effetti si smorzano, mentre altri, pur del medesimo ordine di grandezza originario, sono destinati ad amplificarsi e a trasmettersi al livello di generalità superiore. Negli ultimi anni, sono state concepite versioni differenti della gerarchia evolutiva, e sono state esplorate le estensioni e le diramazioni possibili (allivello macroevolutivo come allivello molecolare). Ci si è interrogati, per esempio, su quali unità evolutive possano essere definite all'interno del genoma, che a sua volta si è rivelato essere composto in forma gerarchica: cromosomi, geni, basi nucleotidiche del DNA. Ci si è interrogati sul ruolo da attribuire nella gerarchia alle popolazioni, cioè a quelle collettività intermedie fra individuo e specie che abbiamo visto essere il tramite decisivo dei processi di speciazione. Ci si è interrogati sul ruolo evolutivo delle unità tassonomiche di ordine superiore, quali il genere (Homo), la famiglia (ominidi), l'ordine (primati), la classe (mammiferi), il phylum (cordati), il regno (animali). Eldredge, in particolare, ha osservato come la metafora darwiniana della « lotta 233
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
per l'esistenza» possieda in realtà due aspetti distinti, anche se interconnessi. Da un lato, la «lotta » si riferisce alla sussistenza, alla ricerca di cibo e di energia sufficienti per il mantenimento delle funzioni metaboliche di ciascun organismo. Questo è l'aspetto economico o ecologico della «lotta per l'esistenza ». Ma, d'altra parte, la capacità di un individuo di sopravvivere, di svilupparsi, di raggiungere l'età matura in buone condizioni ha anche conseguenze sulla funzione riproduttiva di ciascun organismo, e quindi sull'apporto di ciascun organismo alla composizione delle generazioni successive. Questo è l'aspetto genealogico della «lotta per l'esistenza». Un organismo individuale può sopravvivere senza esercitare le funzioni riproduttive, ma non può sopravvivere senza esercitare le funzioni economiche. La gran parte degli organismi partecipa costantemente alle dinamiche economiche, mentre svolge funzioni riproduttive soltanto in momenti particolari del ciclo vitale e del ciclo annuale. Questa distinzione è stata da Eldredge inglobata entro la teoria gerarchica dell' evoluzione: le unità che vengono definite osservando l'evoluzione dal punto di vista genealogico non sono necessariamente le stesse unità che vengono definite osservando l'evoluzione dal punto di vista economico (o ecologico). Egli ha definito quindi due gerarchie differenti - una genealogica e una economica - e ha posto il problema della loro interazione. Gould e Vrba, da parte loro, hanno delineato un altro sviluppo della teoria gerarchica. Hanno coniato il termine « ex-aptation » (« ex-attamento ») per parlare di quei caratteri che, sviluppatisi in una specie per una ragione contingente e locale, entrano a fare parte di un eterogeneo e ampio repertorio, del quale il bricolage evolutivo si potrà servire per far fronte a situazioni critiche. Essi distinguono la nozione di « ex-attamento » dalla nozione classica di «ad-attamento» (ad-aptation), riservata soltanto ai caratteri direttamente selezionati per le necessità del momento. In questo modo, Gould e Vrba delineano una teoria della progettazione degli organismi biologici che rovescia l'idea tradizionale secondo cui gli sviluppi evolutivi più fecondi sarebbero dovuti a un miglioramento dell'adattamento. Nella loro prospettiva è vero proprio il contrario: adattamenti locali troppo ben riusciti possono essere la precondizione per una futura estinzione; un forte successo a breve termine può significare l'incapacità di affrontare i cambiamenti ambientali di lungo periodo. Le migliori potenzialità per il successo di una specie sarebbero invece date dalla varietà e dalla flessibilità del suo « repertorio exattativo ». Vari sono i tipi di exattamento. Un primo tipo si riferisce ai caratteri che, sorti con una particolare funzione adattativa, possono successivamente rivelarsi adatti per una nuova funzione. Con ogni probabilità, le piume degli uccelli sono l'esito di un processo exattativo: prodotte per la regolazione termica, solo in seguito sono state utilizzate per fare fronte ai problemi che comportava l'esplorazione degli strati inferiori dell'atmosfera attraverso una nuova forma di comportamento: il volo. Un secondo tipo di exattamento concerne quegli aspetti degli organismi che non sono sorti per funzioni adattative e che in seguito possono rivelarsi adeguati
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
per una funzione particolare. Può darsi che la struttura dei mammiferi, a quattro arti, sia adatta alle esigenze della locomozione terrestre. Resta il fatto che questa struttura non è di origine adattativa, ma exattativa, perché è ereditata dalle quattro pinne che caratterizzarono i pesci nostri antenati. Un terzo tipo di exattamento si riferisce alle interazioni fra livelli differenti della gerarchia evolutiva. Quanto avviene a un determinato livello della gerarchia evolutiva, per cause locali (che talvolta possono essere adattative), può influenzare i livelli superiori della gerarchia. L'evoluzione e la diversificazione biochimiche delle sequenze ripetute di DNA hanno spesso importanti conseguenze exattative sulla morfologia e sul comportamento degli organismi individuali. Innescata da cause locali, al livello genico della gerarchia evolutiva, la cascata di eventi che consegue alla replica delle sequenze di DNA può produrre il materiale per la selezione al livello degli organismi. IV ·
VERSO
UN'IMMAGINE
SISTEMICA
DEL
GENOMA
Lewontin, sin dalle sue ]esup Lectures del 1974, ha tratto conseguenze assai generali dalla critica ai presupposti della tradizionale concezione adattazionista. Innanzitutto ha criticato l'idea, in qualche modo resa nuovamente popolare da Dawkins, che sia possibile ascrivere una/itness darwiniana a un singolo gene, indipendentemente dal contesto. Al contrario, prima che la nozione di fitness possa essere di una qualche utilità, per Lewontin è necessario correlare i genotipi e i fenotipi nel loro complesso. Questa revisione in senso olistico della nozione di organismo conduce con sé altre revisioni: gli organismi non sono divisibili « naturalmente » in caratteri morfologici o comportamentali relativamente indipendenti; ogni divisione dipende sempre dalle finalità e dalle prospettive dell'osservatore; le storie evolutive dei singoli caratteri non possono dirsi veramente separabili e anzi, nella generalità dei casi, la variazione di un carattere si ripercuote sulla storia evolutiva di molti altri. In questa prospettiva anche la relazione fra organismo e ambiente è vista come una relazione globale. Lewontin mette soprattutto in discussione la dicotomia fra interno ed esterno, domandandosi: perché continuare a pensare che la polarità ambientale giochi soltanto un ruolo attivo (di causa) e la polarità dell'organismo soltanto un ruolo passivo (di effetto)? E perché continuare a ritenere che la forza trainante dell'evoluzione sia l'ambiente che interroga e che gli organismi non siano altro che oggetti su cui questa forza si eserciterebbe? Scelte di tal genere si fondano appunto sul presupposto che l'ambiente sia composto da nicchie discrete e separabili, esistenti indipendentemente e antecedentemente rispetto agli organismi. Al contrario, nella prospettiva di Lewontin, anche gli aspetti più stabili dell'ambiente sono modellati dai processi di esplorazione e di « progettazione » operati dalle specie viventi. Ritorna in primo piano il tema dell'attività degli organismi, già caro a Dobzhansky e a Conrad Waddington: anche quando agisce la selezione naturale, 235
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
anche quando la pressione ambientale impone all'organismo di adattarsi a una particolare serie di circostanze, l'organismo comunque trasforma queste stesse circostanze, con conseguenze irreversibili sia per la specie a cui appartiene, sia per le altre specie con cui interagisce. In nessun modo i sistemi viventi possono essere intesi come collezioni di tratti o di caratteri che subiscono passivamente la direzione imposta loro dalle forze ambientali. Al contrario, sono entità autonome e attive, che contribuiscono alla creazione e alla modulazione di queste stesse forze. L'evoluzione è sempre una co-evoluzione, una storia di interazioni fra sistemi (e fra ciò che definiamo di volta in volta sistema e ambiente), una storia di reciproche compatibilità che si sviluppano o che vengono meno. Susan Oyama ha approfondito e ampliato le conseguenze dell'idea di coevoluzione. Allivello individuale, l'unità dell'evoluzione è il sistema dello sviluppo. Non comprende soltanto il nucleo della cellula, ma il nucleo insieme alle varie strutture della cellula e a innumerevoli influenze extracellulari. Non comprende soltanto l'organismo, ma comprende l'organismo e gli aspetti dell'ambiente che influenzano lo sviluppo, dalle sostanze chimiche che provengono dal corpo della madre alle relazioni sociali nelle fasi della crescita. La selezione naturale non può essere intesa come un agente. L'interazione fra la selezione e le popolazioni è il risultato cumulativo di particolari vite individuali, che hanno avuto luogo in circostanze specifiche. Di conseguenza, la selezione naturale è interpretabile come un modo abbreviato per definire i cambiamenti di distribuzione che sono dovuti all'interazione fra sistemi dello sviluppo. L'evoluzione è il cambiamento di questi sistemi. Nelle scienze evolutive degli ultimi vent'anni, prospettive analoghe o ancora più radicali, sono state delineate da una tradizione alternativa a quella neodarwiniana, volta a «superare» o a «completare» il darwinismo: possiamo definirla come morfologica in senso ampio. Questa tradizione considera i più importanti cambiamenti evolutivi (o, almeno, i cambiamenti macroevolutivi) quali riorganizzazione di forme basilari (tipi, piani di organizzazione, Baupliine) e non come semplici prodotti di forze selettive esterne. In vari modi, precursori di questa prospettiva furono D' Arcy Thompson, Richard Goldschmidt e Waddington. Centrale negli sviluppi di questa tradizione è l'ipotesi che molte discontinuità evolutive abbiano a che fare soprattutto con l'organizzazione gerarchica del genoma e con la mutazione dei geni regolatori situati ai livelli superiori della gerarchia. Queste mutazioni eserciterebbero un caratteristico «effetto cascata» sui tempi e sui ritmi dello sviluppo dell'organismo: modificherebbero l'ordine temporale di attivazione di molti altri geni, invertirebbero le priorità, rallenterebbero o accelererebbero i ritmi dell' ontogenesi, e così via. Se così è, non solo la macroevoluzione non può essere ridotta alla microevoluzione ma, al contrario, la differenza fra i due livelli identificherebbe una vera e propria distinzione dei meccanismi genetici in atto. Se i processi di adattamento e di selezione naturale studiati dalla sintesi neodarwiniana possono essere alla base delle variazioni interne alle specie, l'origine delle specie e delle
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
unità tassonomiche di ordine più elevato potrebbe dipendere soprattutto da queste riorganizzazioni complessive del genoma. Questa ipotesi è diventata oggetto di ricerca sperimentale a partire dagli anni sessanta. Nel 1969 R.J. Britten e E.H. Davidson pubblicarono un lavoro pionieristico che analizzava le sue implicazioni. La scoperta del « DNA egoista» (o junk DNA) ha poi intensificato la ricerca. L'ipotesi è che buona parte di questo DNA abbia proprio la funzione di regolare varie fasi dello sviluppo, e che nel genoma la parte dei geni regolatori potrebbe prevalere sulla parte dei geni strutturali. La mutazione, in questa prospettiva, non è più considerata condizione sufficiente per spiegare i cambiamenti evolutivi, perché il suo esito dipende dal modo in cui il prodotto del gene mutato interagisce nel processo dello sviluppo. Mutazioni della medesima entità possono dare origine a risultati assai differenti, a seconda del contesto in cui sono inserite. Lo sviluppo di ogni organismo dipende da una rete di relazioni. Lo studio dei processi di regolazione dello sviluppo embriogenetico degli organismi rafforza così la nuova immagine del genoma quale sistema integrato, non scomponibile arbitrariamente in caratteri atomici. Il genoma non è una collezione di geni indipendenti, l'uno equivalente all'altro, ma una gerarchia di processi, di decisioni e di biforcazioni, nella quale le trasformazioni ai livelli più elevati della gerarchia possono avere conseguenze macroevolutive di grande portata. Queste concezioni del genoma e dello sviluppo mettono in discussione non soltanto l'interpretazione del neodarwinismo riassunta nell'assunzior.e sintetica, ma anche la concezione per cui la genetica mendeliana tradizionale sarebbe condizione necessaria e sufficiente per spiegare l'evoluzione. Quanto basta, crediamo, per far considerare lo stato attuale delle scienze evolutive come post-neo-darwiniane. Queste concezioni, inoltre, mettono in discussione anche molte asserzioni cristallizzatesi nella fase pionieristica della biologia molecolare. Non è vero che ogni proteina è codificata da un gene: talvolta, una proteina è codificata da frammenti del DNA collocati su due o più cromosomi. Non è vero che tutto il DNA codifica le proteine: molte sequenze non vengono affatto tradotte. Esistono geni che saltano da cromosoma a cromosoma, i « trasposoni ». In molte specie, frammenti di materiale genetico si trasmettono da individuo a individuo. Un assunto è soprattutto in discussione: l'idea che l'evoluzione (filogenesi) sia separabile dallo sviluppo (ontogenesi), giacché l'evoluzione concernerebbe esclusivamente la trasmissione alle generazioni successive dell'informazione ereditaria contenuta nel genotipo, mentre lo sviluppo riguarderebbe la traduzione di questa informazione nel fenotipo degli organismi adulti. Questa rigida separazione risale alla teoria del germoplasma di August Weismann, che divideva l'organismo in una parte inerente alla funzione riproduttiva (il germe), e in una parte inerente alla funzione vegetativa (il soma). Ben presto, questa teoria si rivelò errata; ma la sua conseguenza è stata assunta, pressoché inalterata, quale « dogma centrale» del neodarwinismo. Nell'epoca della biologia molecolare, il «dogma di Weismann » fu così ridefinito: 237
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
l'informazione genetica passa sempre dal DNA al RNA e quindi alle proteine; il cammino inverso è escluso, e l'unico fattore di mutamento chimico e molecolare che possa avere esiti fenotipici significativi consiste in quegli errori del processo di copia del DNA che vanno sotto il nome di mutazioni. Già da decenni gli embriologi conoscevano tipi di sviluppo che violavano il «dogma di Weismann ». Inoltre, i modi delle interazioni e delle retroazioni tra filogenesi e ontogenesi sembravano variare a seconda del tipo di organismi in gioco. Ma il problema è stato riaffrontato in tutta la sua portata soltanto negli ultimi vent'anni, allorché sono state rimesse in discussione sia l'immagine del genoma sia la natura delle relazioni fra il genoma e il suo ambiente molecolare. Il DNA del genoma, tradizionalmente considerato uno statico ricettacolo di informazioni, si è rivelato estremamente fluido e mutevole. E non appare più la centrale di controllo dell'intera cellula e dell'intero organismo. Al contrario, le relazioni fra il genoma e il suo ambiente presentano un'intricata ecologia, nella quale gli enzimi sottopongono i geni a molte operazioni: accoppiamento, taglio, digestione, risistemazione, mutazione, reiterazione, edizione, correzione, inversione, troncamento, cancellazione, traslocazione. In questa ecologia, alcuni enzimi si rivelano sensibili a influenze ormonali, capaci di riflettere gli stimoli dell'ambiente. L'idea, condivisa anche da Darwin, secondo cui le mutazioni sarebbero concomitanti a squilibri ambientali appare sempre più plausibile. Si aprono nuove strade di incontro tra filogenesi e ontogenesi, come pure fra tradizione morfologica e tradizione darwiniana. Sia il pluralismo evolutivo conseguente al dibattito sugli equilibri punteggiati (dal lato del darwinismo), sia la scuola anglosassone di biologia teorica fondata da Waddington e che oggi ha in Brian Goodwin il suo maggiore esponente (dal lato della tradizione morfologica) emerge così una consonanza sulla necessità di revisione delle due teorie darwiniane che più furono cristallizzate dalla sintesi neodarwiniana. Per entrambe le parti in gioco, evoluzione non è più sinonimo di cambiamento lento, graduale e impercettibile. E per entrambe le parti in gioco, la selezione naturale non è più la causa unica o prevalente dell'evoluzione. È naturale allora chiedersi se permanga un'opposizione effettiva fra le due posizioni, o se piuttosto esse non siano separate solo da una questione di enfasi e di punto di partenza (selezione naturale nel caso del pluralismo evolutivo di radice darwinista, Baupliine bene integrati nel caso della tradizione morfologica) e di fatto non si incontrino in un vasto terreno comune, comprendente sia la concezione attiva e coevolutiva degli organismi sia l'accento sulle trasformazioni dei sistemi di regolazione dello sviluppo. Questo terreno comune potrà evolversi in una vera e propria scienza della /orma? Questo, tra l'altro, è l'auspicio dello stesso Gould, che ha più volte sottolineato come la plasticità della selezione naturale non sia illimitata e come essa sia sottoposta ai vincoli dell'architettura dell'organismo. Negli anni ottanta, alcuni ricercatori formatisi all'interno della tradizione morfologica e in particolar modo alla scuola di Waddington (Mae Wan Ho, Peter
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
Saunders, Jeffrey Pollard, Sidney Fox, Gerry Webster e soprattutto Brian Goodwin) hanno promosso una serie di convegni e di pubblicazioni, animati dalla convinzione di essere testimoni della nascita di un nuovo paradigma evolutivo, imperniato non soltanto sulla teoria gerarchica dell'evoluzione e sul pluralismo dei fattori dell'evoluzione (punti di convergenza con la tradizione darwiniana), ma anche e soprattutto su un forte ridimensionamento del ruolo della selezione naturale a vantaggio dei processi di auto-organizzazione. In tale prospettiva, l'ecologia dell'evoluzione (definibile sulla base delle considerazioni coevolutive di Lewontin e di Oyama) pare possedere molti tratti caratteristici dei sistemi auto-organizzatori studiati dalla termodinamica di non equilibrio. Tali tratti potrebbero far luce sui grandi cambiamenti evolutivi più di quanto non sia in grado di fare il bagaglio concettuale darwiniano, ivi comprese le sue più recenti espansioni. Questo programma appena iniziato sta già trasformando l'intero contesto delle scienze evolutive. Mentre nei decenni scorsi gli esponenti della prospettiva neodarwiniana (in particolare Mayr) hanno difeso l'autonomia di metodi e oggetti delle scienze del vivente rispetto alle scienze fisico-chimiche, gli odierni esponenti della scuola di biologia teorica pongono il problema di una maggiore integrazione fra i due ambiti disciplinari. Ciò non ha tuttavia esiti riduzionisti né è in contraddizione con la rivendicazione di una pari dignità fra gli approcci qualitativi e narrativi propri delle scienze storiche ed evolutive e gli approcci qmtntitativi e matematizzanti. La ricerca di integrazione, infatti, si rivolge a una fisica e a una chimica profondamente trasformate dalle rivoluzioni della seconda metà del nostro secolo (termodinamica di non equilibrio, dinamica del caos, teorie dell'auto-organizzazione e della complessità, ecc.), a una fisica e a una chimica che hanno posto al centro della propria indagine i problemi del tempo, della storia e dell'evoluzione. V
• I
ESTINZIONI
TEMPI DEI
LUNGHI
DINOSAURI
DELLA ED
BIOSFERA.
ESTINZIONI
DI
MASSA
Nel 1980 quattro scienziati dell'Università di Berkeley (il fisico Luis Alvarez, il geologo Walter Alvarez, i chimici Frank Asaro e Helen Miche}) pubblicarono un articolo (Extraterrestrial cause /or the cretaceous-tertiary extinction), nel quale sostenevano che circa 65 milioni di anni fa la biosfera sarebbe stata profondamente alterata dalla caduta sul nostro pianeta di un corpo extraterrestre con un diametro di circa dieci chilometri: molto probabilmente un meteorite gigante. A partire dal momento dell'impatto, una serie di reazioni a catena avrebbe sconvolto (in tempi brevissimi: pochi anni o pochi mesi) i cicli climatici e le catene alimentari dell'intero Pianeta. La polvere, i detriti e il vapore acqueo prodotti dalla collisione avrebbero riempito l'atmosfera; gigantesche nubi avrebbero oscurato la luce del sole; sarebbe calata bruscamente la temperatura; l'oscurità avrebbe impedito la fotosintesi delle piante verdi (e tutte le catene alimentari che avevano come primo anello 239
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
le piante verdi sarebbero state danneggiate o addirittura interrotte). La conseguenza più importante e più duratura per la storia successiva della biosfera sarebbe stata la completa estinzione dei dinosauri, cioè del gruppo di specie che aveva dominato gli habitat del Pianeta per più di roo milioni di anni. I.;équipe di Berkeley ritenne di avere trovato la prova cruciale dell'impatto del corpo celeste nel fatto che, negli strati geologici che segnano il confine tra il Cretaceo e il Terziario (il confine K-T), era presente una concentrazione insolitamente elevata di iridio, un elemento che nella crosta terrestre è praticamente inesistente e che è al contrario relativamente abbondante in particolari tipi di meteoriti. J.;ipotesi, quindi, è che esso sia stato un componente dell'oggetto extraterrestre, in seguito diffuso nel nostro pianeta dal fallout susseguente all'impatto. J.;articolo del 1980 si riferiva in particolare a una concentrazione anomala di iridio (circa mille volte la concentrazione che l'iridio ha abitualmente negli strati esterni della crosta terrestre) riscontrata nelle vicinanze di Gubbio. Negli anni successivi, la stessa anomalia è stata riscontrata in molte altre regioni della Terra (Danimarca, Montana, Nuova Zelanda, ecc.). Nonostante questa evidenza, da parte di molti geologi e paleontologi è emersa subito una certa resistenza proprio dinanzi al nucleo della congettura, secondo la quale la storia della biosfera si sarebbe incrociàta in uno o più momenti cruciali con dinamiche cosmiche. All'ipotesi dell'impatto esterno si è contrapposta l'ipotesi di convulsioni globali in grado di produrre i medesimi effetti, ma senza intervento di cause e di oggetti extraterrestri. Questa spiegazione alternativa ha in ogni caso molto in comune con l'ipotesi dell'impatto: anch'essa, infatti, condivide l'idea che la fine dei dinosauri sia stata estremamente rapida a causa di una radicale discontinuità dello stato della biosfera, provocata da una serie di reazioni a catena di tipo climatico ed· ecologico. Solo che la causa scatenante sarebbe da riscontrarsi sulla Terra e non già nei cieli. J.;abbassamento generalizzato della temperatura potrebbe derivare dai meccanismi della tettonica a zolle e della deriva dei continenti, da una singola esplosione vulcanica di enorme intensità o da un concomitante aumento dell'attività vulcanica in molte aree del Pianeta. Il riferimento al vulcanismo è considerato attualmente l'unico serio concorrente dell'ipotesi extraterrestre, tanto più che si è scoperto che anche taluni vulcani emettono iridio in quantità relativamente elevate. Le testimonianze fossili e geologiche, e tutte le ipotesi oggi prese in considerazione, escludono comunque la gran parte delle cause avanzate in passato per spiegare la fine dei dinosauri: epidemie, intossicazioni collettive, sterilizzazioni di massa, ecc. Viene esclusa, infatti, ogni spiegazione che correli direttamente la causa dell'estinzione ai tratti particolari e specifici dei dinosauri. I.; evidenza paleontologica mostra ad abundantiam come la fine dei dinosauri sia coincisa con la fine di molte altre linee di discendenza del tutto irrelate, di molte altre specie con natura, abitudini, taglia, habitat totalmente differenti. Anzi, al confine K-T praticamente tutti i gruppi
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
di animali e di piante, sulle terre come nei mari, subirono perdite. Negli oceani, furono spazzate via circa il 75% delle specie allora viventi: gravi danni subirono le alghe monocellulari del fytoplancton, i pesci ossei, le spugne, le lumache di mare. Le ammoniti (un gruppo di molluschi imparentato lontanamente ai calamari) scomparvero del tutto e per sempre. Sulle terre emerse, invece, vennero sterminate praticamente tutte le specie composte da individui di taglia media superiore ai 20-25 chili. La fine dei dinosauri coincise con un'estinzione di massa. David Jablonski ha introdotto la distinzione fra estinzioni di massa ed estinzioni di sfondo. Con estinzioni di sfondo si intende la normale eliminazione delle specie viventi sul Pianeta, prodotta da cause locali e selettive che coinvolgono specie ed ecosistemi particolari. Le estinzioni di massa, al contrario, sono estinzioni non selettive, non imputabili all'inadeguatezza di questa o di quella specie nei confronti del suo ambiente. Sono estinzioni che colpiscono a caso e su grandi numeri. Possono annientare anche unità tassonomiche di ordine più elevato delle singole specie: dato il grandissimo numero delle singole specie che talvolta si estinguono, può aver luogo anche l'estinzione di interi ordini o di intere classi di animali. L'interesse per la fine dei dinosauri ha contribuito al sorgere di un interesse per il fenomeno delle estinzioni di massa nel suo complesso. Si è scoperto che esse sono un fenomeno estremamente rilevante e ricorrente in tutta la storia degli organismi pluricellulari. Sono più frequenti, più rapide, più profonde (per il numero di specie eliminate) e più differenti (rispetto ai ritmi e alle direzioni dell'evoluzione prevalenti nei tempi ordinari) di quanto non si sospettasse in passato. Varie sono le opinioni sul numero e sulle conseguenze delle estinzioni di massa globali che hanno segnato la storia della biosfera. n consenso è generale su cinque estinzioni di enorme portata, denominate collettivamente The Big Five. Stanno inoltre emergendo tracce di estinzioni di massa ancora più antiche, che interessano il Cambriano o addirittura l'era Precambriana. Fra le grandi estinzioni di massa, quella che segna i confini tra il Cretaceo e il Terziario è la più conosciuta, ma non è quella che ha avuto gli effetti più intensi e drammatici. Almeno in termini quantitativi, l'estinzione di massa più intensa fu quella che ebbe luogo al confine tra il Permiano e il Triassico, circa 245 milioni di anni fa. Eliminò più del 90% delle specie marine. Sulla terraferma, scomparvero tre dei quattro ordini di anfibi allora esistenti; di un particolare tipo di rettili, su circa cinquanta generi se ne salvò solo uno. Le estinzioni di massa hanno un ruolo ambivalente: non sono soltanto distruttrici; sono anche creatrici, rappresentano una delle cause principali dell'evoluzione. Costituiscono un importante fattore di riaggiustamento e di trasformazione dei tempi e dei ritmi ordinari della macroevoluzione e della microevoluzione. Molte delle grandi svolte e delle grandi innovazioni evolutive ebbero luogo non nella biosfera affollata delle specie in competizione dei tempi ordinari, ma nella biosfera impoverita delle fasi successive alle estinzioni di massa. La stessa nascita dei dinosauri ebbe luogo 241
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
sulla Terra quasi spopolata dall'estinzione di fine Permiano, mentre i mammiferi poterono proliferare dopo l'improwisa fine dei dinosauri al confine fra Cretaceo e Terziario. Nel corso degli anni ottanta, il dibattito sulle estinzioni di massa si è concentrato intorno a due questioni principali: in primo luogo, se sia possibile rintracciare una qualche periodicità nel ritmo con cui le estinzioni di massa si sono presentate nella storia della biosfera; in secondo luogo, quali sono le cause delle estinzioni di massa e soprattutto se sia possibile trovare una causa comune dietro eventi assai lontani nel tempo e di portata assai differente, o se invece le cause siano plurali e si debbano adottare tipi di spiegazione caso per caso. La serie delle estinzioni di massa, che comprenderebbe non soltanto le estinzioni di importanza maggiore sopra elencate, ma anche altre di portata minore, è stata ricostruita e datata con vari metodi. D. M. Raup e J. Sepkoski hanno osservato che alcuni dei risultati sembrano concordare nel definire un ritmo più o meno costante che intercorrerebbe fra due successive estinzioni di massa: 26 milioni di anni circa. Per spiegare queste periodicità, si è cercato di generalizzare l;ipotesi dell'impatto di corpi extraterrestri, avanzata originariamente quale causa dell'estinzione di massa della fine del Cretaceo, e si è postulato che sulla superficie terrestre awengano a intervalli regolari impatti di oggetti celesti relativamente grandi, e che questi intervalli coincidano con la periodicità osservata nel ritmo delle estinzioni di massa. Tuttavia, fino a oggi, la concentrazione elevata di iridio e gli altri indizi che rendono plausibile una causa extraterrestre dell'estinzione di massa alla fine del Cretaceo, non appaiono caratterizzare gli strati associati con gli altri grandi episodi di estinzione. D'altra parte, l'apparente ciclicità delle estinzioni di massa potrebbe essere compatibile con fattori di natura terrestre: per esempio, la periodica estensione dei continenti a scapito delle acque, con conseguente riduzione dell'estensione e della varietà degli habitat marini. Come possibile causa ricorrente, Steven Stanley ha ipotizzato anche l'abbassamento globale della temperatura. Stephen Donovan, che propende per una risposta pluralista al problema delle cause delle estinzioni di massa, si è spinto oltre: quale che sia il risultato ultimo della controversia circa la ciclicità o meno del ritmo delle estinzioni, la ricerca sul campo sembrerebbe a suo awiso indicare che le maggiori estinzioni di massa abbiano cause molteplici e diversificate. Di volta in volta: riduzione degli habitat marini, dovuta a un aumento del livello del mare; perturbazioni ambientali dovute alla crescita o alla ritirata di calotte glaciali; raffreddamento globale del clima; deriva dei continenti; aumento delle precipitazioni atmosferiche; impatto di un corpo extraterrestre. Talvolta, è plausibile anche una combinazione di due o più cause di questo genere. In ogni caso, le due più grandi estinzioni conservano intatti molti dei loro misteri. Che si adotti l'ipotesi dell'impatto extraterrestre o quella dell'attività vulcanica, è ormai largamente condivisa la congettura che l'estinzione di 65 milioni di
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
anni fa, alla fine del Mesozoico, sia stata dovuta a una catena di eventi estremamente rapidi. Ma ciò è sufficiente a spiegare la sua gravità? Il corpo celeste sarebbe caduto in una biosfera già in crisi, forse per un progressivo raffreddamento climatico dovuto alla separazione dell'Australia dall'Antartide e alla trasformazione delle correnti marine. Per l'estinzione al confine Permiano/Triassico, i misteri sono ancora più fitti. A sconcertare non è soltanto la quantità, ma anche la varietà degli organismi spazzati via. La possibilità di un impatto celeste trova in questo caso pochi sostenitori. Chi va in cerca di cause terrestri, comunque, non può fare a meno di indicare un'altra concomitanza di cause. A una causa climatica, ancora un raffreddamento globale, si sarebbe accompagnato un radicale mutamento nella distribuzione delle terre e dei mari. I due grandi supercontinenti dei tempi antecedenti, Gondwana nell'emisfero meridionale e Laurasia nell'emisfero settentrionale, si avvicinarono sempre più, fino a collidere in un unico, immenso blocco delle terre emerse: Pangea. Questa concomitanza di cause avrebbe trasformato praticamente tutti gli ecosistemi del mondo. Stanley ha osservato che comunque le cifre che esprimono la gravità della crisi possono essere in un certo senso ingannevoli. Molto probabilmente, infatti, il numero delle estinzioni complessive fa riferimento a un periodo che può addirittura raggiungere i ro milioni di anni: certo, un periodo relativamente breve su scala geologica, ma niente affatto istantaneo! Al di là dell'uniformità o dell'eterogeneità delle loro cause, le varie estinzioni di massa paiono condividere alcune caratteristiche. Particolari gruppi di organismi tendono a esserne coinvolti in modo più severo di altri: gli animali più delle piante; le specie che vivono in climi tropicali più di quelle che vivono in climi freddi o temperati. D'altra parte, le migliori possibilità di sopravvivenza sono possedute dalle specie che hanno un ambito di distribuzione geografica molto ampio e diversificato. Per comprendere come le estinzioni di massa siano all'origine di nuove possibilità evolutive, non è sufficiente considerare l'estinzione di una specie come l'effetto puro e semplice di cause o di concomitanze di cause, terrestri o celesti, istantanee o più estese nel tempo. Sono in questione anche la natura e la storia delle specie, delle relazioni che ogni specie intratteneva con altre specie e, più in generale, delle relazioni globali che caratterizzavano la biosfera al tempo dell'evento cruciale. Ciò che provoca l'estinzione o la sopravvivenza di una specie non è la singolarità catastrofica presa isolatamente, ma l'interazione fra gli equilibri antecedenti e nuovi, imprevisti eventi. È solo rispetto a tale interazione che questi eventi assumono, o non assumono, un ruolo distruttore o un ruolo creatore. Dal comportamento delle specie e dei gruppi di organismi in occasione delle estinzioni di massa appaiono differenti modalità di interazione fra la traiettoria evolutiva di una specie o di un gruppo animale e la catena di eventi che trasforma la biosfera. La domanda « perchè gli organismi di una specie o di un gruppo di specie non si sono estinti insieme agli organismi di una specie o di un gruppo di spe243
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
cie simili? » non è affatto scontata. In molti casi, non si danno ragioni per pensare che la prevalenza di un gruppo rispetto all'altro sia dovuta a motivi differenti dalla pura casualità. In tal caso, si assisterebbe a una sorta di sopravvivenza per lotteria: una survival o/ the luckiest (sopravvivenza del più fortunato). Talvolta, però, sono state scoperte relazioni più sottili fra gli eventi e le caratteristiche di una specie. La catastrofe, in genere, colpisce in modo particolarmente severo quelle linee di discendenza, quei gruppi di organismi che erano già indeboliti da altre cause di natura locale. Tale, abbiamo detto, era con tutta probabilità la condizione degli stessi dinosauri nel periodo finale del Cretaceo, immediatamente antecedente alla grande estinzione. In questo caso, la relazione fra l'equilibrio antecedente e l'evento singolare fu del tipo « colpo di grazia »: la singolarità catastrofica amplificò drammaticamente tendenze già in atto. Viene naturale chiedersi: senza quel colpo di grazia, alcuni generi di dinosauri sarebbero sopravvissuti ancora per milioni di anni? E inoltre: uno sconvolgimento distruttivo quanto l'episodio che divise il Mesozoico dal Cenozoico avrebbe egualmente significato la fine della stirpe dei dinosauri anche al tempo del suo massimo vigore evolutivo, quando era molto più ramificata e diversificata? In ogni caso, non fu solo l'impatto di un bolide celeste o un'esplosione vulcanica particolarmente intensa a cancellare i dinosauri dalla faccia della Terra. Furono anche la loro ecologia e la loro storia antecedenti; o meglio, l'incontro di eventi singolari e contingenti con la loro ecologia e la loro storia. VI
·
L'EVOLUZIONE
DELLA
DIVERSITÀ
Nel 1909, in una formazione geologica nota come Scisti di Burgess (situata nella provincia canadese della Columbia Britannica), fu scoperto un deposito di fossili che, grazie a una concomitanza di fattori, conservava anche le parti molli dei corpi, con tutti i vantaggi che ne conseguivano per ricostruire la morfologia degli organismi. Per questo, tali fossili sono una testimonianza privilegiata sullo stato della vita nei mari del nostro pianeta, in una delle svolte chiave della storia naturale: il Medio Cambriano, circa 530 milioni di anni fa. Il deposito di fossili degli Scisti di Burgess ha rivelato un'enorme varietà di organismi. Molti di questi organismi facevano parte del phylum, del piano di organizzazione degli artropodi, il cui grande successo evolutivo caratterizza l'intera storia degli organismi animali (compreso il momento presente): artropodi, fra l'altro, erano le trilobiti, il tipo di organismi più comune nei mari primordiali. La prima lettura dei fossili degli Scisti di Burgess (proposta dal loro scopritore Charles Doolittle Walcott) fu così immediatamente effettuata con gli occhiali del « calzascarpe »: tutti gli organismi del passato furono interpretati sulla base della classificazione degli organismi del presente o di un passato meno remoto. Si cercò di adattarli alle categorie tassonomiche note, anche se in molti casi questa strategia presentava chiare difficoltà. 244
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
L'adeguatezza della strategia del « calzascarpe » è stata messa in discussione solo negli anni settanta e ottanta. Harry Whittington, Derek Briggs e Simon Conway Morris hanno scoperto che molte delle specie rappresentate nei fossili degli Scisti di Burgess non sono classificabili in nessuno dei phyla oggi esistenti, e non sono nemmeno imparentate fra di loro. Sulla Terra, nei tempi successivi e ai nostri giorni, non vi sarebbe stato più nulla di affine. Molte singole specie appartengono a nuovi phyla, fino a oggi ignoti: tipi di animali, linee di discendenza che nelle ere successive non hanno avuto seguito. In particolare, otto delle specie rappresentate nei fossili degli Scisti di Burgess sono sicuramente classificabili sotto nuovi phyla. Un'altra decina di specie sono ancora in attesa di interpretazione, ma pare probabile che anche una buona parte di queste richiederà la coniazione di nuovi phyla. I fossili degli Scisti di Burgess ci impongono così di aumentare di almeno una quindicina di phyla la nostra rappresentazione della varietà degli organismi viventi. Dalla reinterpretazione dei fossili degli Scisti di Burgess sono emersi nuovi problemi. In primo luogo: perché tanti piani di organizzazione si sono creati in così poco tempo, nei pochi milioni di anni che intercorrono dall'inizio del Cambriano al tempo degli Scisti di Burgess? Forse nella biosfera di quelle ere remote esisteva qualcosa che la faceva differire radicalmente dalla biosfera dei nostri giorni? Ma che cosa? I pareri sono discordi. Si possono tuttavia accorpare in due grandi linee di argomentazione, una coerente con il modo di intendere le relazioni fra organismo e ambiente proposto dalla sintesi neodarwiniana e l'altra che ricerca una nuova spiegazione nei meccanismi dello sviluppo ontogenetico. La prima linea di argomentazione è così riassumibile: differente era l'ambiente, a quel tempo particolarmente generoso. Dinanzi agli organismi pluricellulari appena nati si apriva un enorme spazio vuoto, l'immensità delle distese marine con tutti i suoi habitat pronti a essere occupati. Ci fu un'esplosione di adattamenti locali, che diversificarono molto gli organismi. La biosfera si riempì: alcune nicchie furono saldamente occupate; molte specie furono costrette ad affrontarsi, a sloggiare, a migrare e la competizione divenne il grande regolatore. Questa spiegazione lascia aperti taluni problemi. Certo, l'ambiente era differente: ma anche nelle ere successive grandi estensioni incontaminate si sono aperte alle esplorazioni degli organismi. I continenti sono stati occupati molto più tardi e, di quando in quando, nuove terre sono emerse dai mari. Soprattutto, le estinzioni di massa di maggiore severità (come quella della fine del Permiano) hanno lasciato una grande quantità di spazi vuoti; eppure, i risultati sono stati del tutto differenti: mai più è sorto un nuovo piano di organizzazione. L'ambiente, quindi, può raccontarci solo metà della storia. La seconda linea di argomentazione mette in evidenza come anche gli organismi, e non solo l'ambiente, fossero differenti. Ma in che cosa erano differenti? J. Valentine e D. Erwin (1986) 245
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
sostengono che probabilmente i genomi erano più semplici e più flessibili. Forse ogni gene era meno legato agli altri geni: poteva esplorare, quasi da solo, un ampio spazio di possibilità evolutive. Forse lo sviluppo (l' ontogenesi) era meno canalizzato; forse le perturbazioni a cui era sottoposto contribuivano a formare fenotipi più vari e più diversificati. Nessuno dei depositi rinvenuti nei periodi successivi testimonia una varietà anatomica comparabile a quella degli Scisti di Burgess. Dall'inizio del Devoniano (395 milioni di anni fa) troviamo quasi soltanto organismi appartenenti ai phyla ancor oggi presenti nella biosfera. Da un certo punto di vista, quindi, l'evoluzione delle specie ha conosciuto, sul lungo periodo, una drastica riduzione piuttosto che un aumento progressivo della varietà dei tipi viventi, almeno se questa è misurata attraverso il numero dei phyla o di altre categorie tassonomiche di livello molto generale. Questa tendenza sembra in apparente contrasto con l'aumento del numero delle singole specie che caratterizza ugualmente la storia della biosfera. Nel 1981, per esempio, Sepkoski, R. Bambach, Raup e Valentine hanno confrontato molte stime indipendenti delle variazioni di diversità degli animali marini, scoprendo che è molto probabile che oggi i mari e gli oceani del Pianeta ospitino circa il doppio delle specie che vi abitavano cinquecento milioni di anni fa. Gould ha fatto osservare come fra le due tendenze, più che di opposizione, sia possibile parlare di complementarità: «I biologi usano il termine ordinario diversità in vari e differenti sensi tecnici. Possono parlare di "diversità" intesa come il numero delle specie distinte che fanno parte di un gruppo: fra i mammiferi, la diversità dei roditori è elevata, più di 1.500 specie distinte; la diversità dei cavalli è invece bassa, perché zebre, asini e cavalli veri e propri fanno in tutto meno di IO specie. Ma i biologi parlano anche di "diversità" quale differenza dei piani corporei. Tre topi di specie differenti non fanno una fauna diversificata, mentre lo fanno un elefante, un albero e una formica, anche se entrambi gli insiemi contengono soltanto tre specie. [. .. ] Alcuni miei colleghi [. .. ] hanno suggerito di eliminare questa confusione sulla diversità restringendo questo termine ordinario al primo senso, al numero delle specie. Il secondo senso, la differenza nei piani corporei, dovrebbe essere allora chiamata disparità. Usando questa terminologia, possiamo allora individuare un fatto centrale e sorprendente della storia della vita: un notevole decremento della disparità seguito da un significativo aumento della diversità entro i pochi piani corporei che sono sopravvissuti. » 5 Questo intreccio di sperimentazione e di standardizzazione è caratteristico non solo dei piani di organizzazione degli organismi, ma anche delle unità tassonomiche di ordine meno elevato. Tutti gli insetti, pur nella loro estrema diversità, condividono un piano generale del corpo standardizzato, che attribuisce loro quattro paia di arti. Tutti i vertebrati terrestri condividono un piano generale del corpo che attribuisce cinque appendici a ognuna delle loro estremità. Queste regolarità costitui5 S.]. Gould, 1989, p. 49·
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
scono vincoli che stanno alla base di tutte le successive traiettorie evolutive. Ma non necessariamente le possibilità compatibili sono ristrette e predeterminate. Le cause della standardizzazione dei piani di organizzazione e delle classi animali non sembrano omogenee: non sono omogenee, del resto, nemmeno le cause delle estinzioni delle specie, alle quali, in ultima istanza, possono essere ricondotte le estinzioni delle unità tassonomiche di ordine superiore. Come abbiamo visto, alle estinzioni locali e selettive si alternano le estinzioni di massa, alle estinzioni imputabili alle caratteristiche di una singola specie si alternano le estinzioni dipendenti da catastrofi ecologiche. Molte sperimentazioni di tipi animali forse non hanno avuto seguito perché invivibili. Ma altre erano probabilmente altrettanto plausibili di quelle che si sono stabilizzate e affermate, e sono state spazzate via soltanto per uno sfortunato colpo di dadi. Un elemento di pura contingenza spesso si aggiunge alle tendenze ordinatrici in atto: talvolta le controbilancia o addirittura le annulla. La vita e la morte di specie e piani di organizzazione dipende dalle interazioni che intercorrono fra coerenze preesistenti ed eventi singolari. Più volte, queste iuterazioni hanno dato luogo a decisioni definitive: alla fissazione di particolari strutture, di particolari forme, di particolari regolarità. Quelle che antecedentemente erano soltanto alcune fra molte opzioni possibili si sono trasformate irreversibilmente in vincoli di tutti gli sviluppi futuri dell'evoluzione. li vincolo evolutivo è ambivalente. Non riduce soltanto la varietà, non è soltanto segno e risultato di una standardizzazione. Nello stesso tempo, concentra e canalizza le variazioni possibili, e consente l'esplorazione dello spazio di possibilità che si è aperto. È la stessa standardizzazione dei piani di organizzazione, dei piani generali del corpo o di altri aspetti morfologici, biochimici, genetici a produrre, nello stesso tempo, la diversificazione che accompagna l'esplorazione dello spettro di possibilità compatibili. VII
·
RADICI
E
ORIGINI
DELLA
VITA
Una nuova confederazione di scienze (la biologia evolutiva, l'embriologia, l'ecologia, la biogeografia, la paleomicrobiologia, ecc.) sta studiando l'eone Criptozoico, cioè l'età della vita « nascosta », che antecede la storia documentata dai fossili. Particolarmente importante si è rivelato il contributo della geofisiologia (termine introdotto da James Lovelock): la scienza della coevoluzione globale della biosfera vivente e non vivente. Essa ha mostrato che nel criptozoico non solo era differente la vita, ma lo erano anche le rocce e la composizione chimica dell'atmosfera. Prima della vita, nell'atmosfera dominava l'anidride carbonica, con una certa presenza di idrogeno, l'ossigeno era assente. Anche questa storia così remota evidenzia un intreccio indissolubile di sperimentazione e standardizzazione. La vita sul nostro pianeta ha oltrepassato nuove soglie evolutive (la creazione degli organismi pluricellulari, l'elaborazione dei mol247
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
teplici piani di organizzazione di tali organismi, la conquista di nuove nicchie ecologiche, ecc.) soltanto dopo essere addivenuta a un forte grado di standardizzazione biochimica, cellulare e metabolica. I quattro regni della natura (animali, piante, funghi e protoctisti) che condividono la cellula eucariota hanno in definitiva lo stesso metabolismo, mentre nel quinto regno (i batteri) i processi per trarre energia e nutrimento sono molto più variati, e sono forse segno di possibili traiettorie evolutive che non hanno dispiegato fino in fondo le loro potenzialità. La cellula eucariota deve il suo nome (dal greco eu, «vero», e karyon, «nucleo») al fatto di contenere il materiale genetico entro un nucleo circondato da una membrana. Nel citoplasma si trovano altri tipi di strutture, con varie funzioni, a loro volta circondate dalle loro rispettive membrane: gli organelli. Ma nella storia del nostro pianeta, la vita eucariota è solo un punto d'arrivo preceduto da un mondo, da uno stato della biosfera di incredibile durata e stabilità (dell'ordine di grandezza dei due miliardi di anni): l'età delle alghe verdazzurre, come J.W. Schopf ha definito l'eone Criptozoico, riferendosi agli organismi di maggiore complessità che abitavano allora la Terra. Le cellule di cui erano fatti questi organismi, come le cellule di tutti i batteri odierni, sono radicalmente differenti dalle cellule degli organismi pluricellulari. Sono cellule procariote: non hanno un nucleo vero e proprio. I geni non sono accorpati in cromosomi, non sono avvolti dalla membrana nucleare e fluttuano nel citoplasma. Lynn Margulis ha scoperto l'importante ruolo che i processi di simbiosi hanno giocato nell'evoluzione dei batteri: tipi di organismi differenti si integrano per formare organismi di livello superiore. Le stesse cellule eucariote avrebbero un'origine di questo tipo. Sarebbero derivate dall'integrazione irreversibile di più tipi di cellule procariote, originariamente indipendenti. L'indizio più forte a favore di questa ipotesi sta nel fatto che gli organelli delle attuali cellule eucariote sono simili a tipi di cellule procariote che vivono isolatamente. L'origine della cellula eucariota fu probabilmente dovuta a una catena di eventi quale, appunto, il compimento di un processo di simbiosi fra organismi batterici originariamente ostili: fra una protocellula ospite e una serie di parassiti volti a insediarvisi (proto-organelli) e sufficientemente attrezzati per resistere alla reazione della proto-cellula. Ne emerse un'unità di ordine superiore, nella quale i prato-organismi persero la loro autonomia. I conflitti fra la cellula e gli organelli sarebbero però durati a lungo, in quanto la replica di un singolo organello andava a detrimento della replica della cellula nel suo complesso. Nel regno dei procarioti, una dozzina di linee di discendenza hanno condotto all'emergenza di organismi pluricellulari. Nei regni degli eucarioti, la tendenza verso organismi pluricellulari è stata molto più pronunciata e diversificata. La cellula eucariota, infatti, è una cellula dotata di cromosomi, condizione indispensabile per la ricombinazione sessuale del patrimonio genetico. Più di una cinquantina di linee di discendenza hanno dato origine a organismi pluricellulari eucarioti. La gran parte compongono il regno dei protoctisti, che sono tutti organismi acquatici; ma tre si
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
sono particolarmente individualizzate, conquistando le terre emerse: i funghi, le piante, gli animali. La linea di spartiacque fra procarioti ed eucarioti non deve però far dimenticare una standardizzazione a livelli ancora più profondi. Tutti gli organismi che popolano la Terra condividono una serie di invarianti biochimiche: gli acidi nucleici (DNA a doppia elica, RNA a catena singola) e le basi nucleotidiche (A, T/U, G, C), che sono le loro unità costitutive; le proteine e gli amminoacidi, che sono le loro unità costitutive; il codice genetico che regola relazioni e traduzioni fra basi nucleotidiche e amminoacidi. Sono queste invarianti a indicare che tutte le forme di vita terrestri condividono un'origine comune. Dall'origine del nostro pianeta (4 miliardi e mezzo di anni fa) all'emergenza degli antenati degli odierni batteri sarebbe passato circa un miliardo di anni. Ma per circa 500 milioni di anni, la temperatura del Pianeta era ancora troppo elevata perché l'acqua si condensasse e si raggruppasse in oceani, e perché si formassero molecole tanto complesse quali gli amminoacidi e i nucleotidi. La vita, dunque, iniziò a divenire possibile 4 miliardi di anni fa, mentre la soglia critica della creazione del codice genetico viene collocata all'incirca verso i 3 miliardi e ottocento milioni di anni fa. Questo significa che la vita sulla Terra, contrariamente a molte opinioni tradizionali, si sarebbe creata in tempi relativamente rapidi, subito dopo che le condizioni chimiche, geologiche, termodinamiche avrebbero iniziato a renderlo possibile. Una tale datazione ha dato nuovo impulso alle ricerche sull'origine della vita, e ha fatto diffondere una nuova vulgata esattamente contraria alle opinioni che solo vent'anni fa Jacques Monod difendeva vigorosamente. Sulla base degli ingredienti fisico-chimici del nostro pianeta la vita non solo non sarebbe improbabile (tesi che Monod pose al centro del suo libro Il caso e la necessità, nel 1970), ma acquisterebbe anche un forte grado di probabilità o addirittura di « normalità »: sia un paleontologo come Gould sia un fisico come Ilya Prigogine oggi propendono per quest'ultima opinione. Nelle prime fasi della storia del nostro pianeta, è probabile che molti amminoacidi (i costituenti di base delle proteine attuali) si siano formati spontaneamente e abbastanza rapidamente, a partire dalle condizioni fisico-chimiche dell'atmosfera primordiale. Nel 1953 Harold Urey e Stanley Miller produssero per la prima volta alcuni amminoacidi a partire da molecole più semplici, in condizioni di laboratorio atte a simulare le condizioni primigenie. Da allora, l'esperimento è stato ripetuto molte volte ed esteso in nuove direzioni: nuovi amminoacidi sono stati prodotti. Negli anni settanta e ottanta, inoltre, Fox ha mostrato come gli amminoacidi siano in grado di aggregarsi per formare strutture polimeriche più complesse (le microsfere « proteinoidi ») in condizioni non dissimili da quelle delle ere prebiotiche. Esperimenti analoghi hanno mostrato che le ipotizzate condizioni prebiotiche sono in grado di generare anche taluni elementi costitutivi degli acidi nucleici (zuccheri, basi nucleotidiche). Tuttavia, in questo caso, esse si rivelano meno favorevoli, 249
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
dal punto di vista termodinamico e cinetico, che nel caso della produzione degli elementi costitutivi delle proteine. Ciò non toglie, però, che la maggioranza degli scienziati propenda oggi per l'ipotesi «prima gli acidi nucleici ». A loro parere, la soglia della vita fu attraversata grazie alla creazione dei precursori degli attuali acidi nucleici: molto probabilmente, non un proto-DNA (e quindi a doppia elica) quanto piuttosto un proto-RNA (e quindi a elica singola). In particolare, il premio Nobel per la chimica Manfred Eigen (n. 1927) ha elaborato uno degli scenari più articolati per rendere conto del problema dell'origine e delle prime fasi evolutive della vita sul nostro pianeta basandosi su questa ipotesi. La prima struttura dotata di capacità di replica sarebbe proprio una sorta di proto-RNA a catena singola, che si sarebbe riprodotta creando una sorta di stampo negativo composto da due sole basi nucleotidiche - la guanina (G) e la citosina (C)- associate in una sola coppia complementare. Per esempio, la sequenza GCGC si sarebbe riprodotta vz"a lo stampo negativo CGCG. Questo ciclo originario avrebbe cooptato le strutture proteiche di cui l'ambiente abbondava e le avrebbe associate al suo processo di replica. Naturalmente, le repliche avrebbero avuto molte imperfezioni. Dalle prime mutazioni, sarebbero derivate differenziazioni, competizioni, selezioni. E sarebbero derivati anche i perfezionamenti del ciclo originario: un codice genetico che associa trz"plette di basi nucleotidiche agli amminoacidi; l'uso di quattro basi nucleotidiche associate in due coppie complementari; il DNA a catena doppia. Non mancano ipotesi più ardite. A.G. Cairns-Smith (1982) ha parlato addirittura di «origine minerale della vita». La vita, cioè, avrebbe conosciuto una fase antecedente in cui le entità replicantisi sarebbero state composte da un materiale completamente diverso, l'argilla. Solo in seguito queste avrebbero, per così dire, attratto molecole organiche quali gli amminoacidi e avrebbero dato il via all'attuale metabolismo. Freeman Dyson (1985), che è arrivato ad affrontare il problema partendo da una prestigiosa carriera di fisico e di cosmologo, ha invece delineato lo scenario di un'origine duplz"ce della vita, lo scenario di una pre-evoluzione sia delle proteine che degli acidi nucleici. La loro associazione sarebbe derivata da un successivo processo sz"mbz"otz"co fra strutture biochimiche eterogenee. In un certo senso, gli acidi nucleici sarebbero i parassiti più antichi e di maggiore successo. Agli inizi degli anni novanta, le interrogazioni sulla contingenza, sulla singolarità, sulla storicità, sulle biforcazioni nei processi evolutivi appaiono un lez"t-motz"v unificatore che connette molte ricerche sulle grandi svolte della storia della biosfera: origini della vita; origini della cellula eucariota; origini degli organismi pluricellulari; origini dei piani di organizzazione animali. Ciò non conduce comunque a una concezione opposta e simmetrica rispetto a quella che ha enfatizzato la saggezza e la preveggenza della natura: non conduce ad asserire che tutti gli aspetti rilevanti degli organismi e della biosfera siano il prodotto di un singolo evento, di un colpo di dadi cosmico. La questione delle regolarità sottostanti alla varietà e alla ricchezza della vita,
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
la questione cioè della presenza di vincoli generatori, è nuovamente sollevata non solo dal rinnovato dialogo fra le due tradizioni che abbiamo definito, rispettivamente, darwiniana e morfologica, ma anche dall'estensione di questo dialogo ad aree di ricerca quali la termodinamica di non equilibrio, la dinamica del caos, le teorie dell'auto-organizzazione e della complessità, ecc. Di questa articolata area di ricerca è esemplare l'opera del genetista Stuart A. Kauffman, di cui ricordiamo in particolare The Origins o/ Order. Selforganization and Selection in Evolution (1993). Rispetto al problema dell'origine della vita, Kauffman prende le mosse dal terreno comune a tutti gli approcci sopra citati, dall'ipotesi cioè che la vita, come oggi la conosciamo sul nostro pianeta, non sia il prodotto di un solo passo gigante di tipo «tutto o niente» (che era in definitiva l'ipotesi di Monod), ma che al contrario sia stata preceduta da una lunga storia, da una storia di « complessificazione » e di catalisi reciproca e incrociata di molte strutture chimiche, che oggi può essere studiata. I risultati sono già tali da mettere in discussione molte convinzioni inveterate. In questa prospettiva, la vita è una proprietà ecologica e relazionale, che discende dalle intere condizioni fisico-chimiche del Pianeta primordiale. La condensazione di un genoma che regola la riproduzione molecolare, come noi oggi la conosciamo, è certo una svolta importante, ma comunque successiva alle soglie in cui ha avuto inizio l'avventura della vita. Ha rilevato Kauffman: « L'origine della vita, invece di essere stata grandemente improbabile, è al contrario una proprietà attesa e collettiva di sistemi complessi di polimeri catalitici e delle molecole sui quali essi agiscono. In un senso profondo, la vita è cristallizzata come un metabolismo autoriproduttore collettivo in uno spazio di possibili reazioni organiche. Se questo è vero, allora le vie verso la vita sono molte e la sua origine è assai radicata e tuttavia semplice. » Decisiva risulterebbe allora la transizione di fase « da una collezione di polimeri che non si riproducono a una collezione di polimeri leggermente più complessa che, insieme, catalizzano la loro propria riproduzione. In questa teoria dell'origine della vita, non è necessario che una qualche molecola riproduca se stessa. Invece, una collezione di molecole ha la proprietà per cui l'ultimo passo nella formazione di ciascuna molecola viene catalizzato da qualche (altra) molecola del sistema. La transizione di fase ha luogo quando sia sorpassato un qualche livello critico di complessità della diversità molecolare. A tale livello critico, [. ..] emerge una rete interconnessa di reazioni catalitiche che connettono i polimeri l'uno all'altro, e questa rete coinvolge le specie molecolari del sistema. Questa rete costituisce la cristallizzazione della chiusura catalitica, in modo tale che il sistema dei polimeri diventa auto-riproduttore, su di un piano collettivo ». 6 ll contributo di Kauffman alle frontiere tra l'universo fisico-chimico e l'universo del vivente va però al di là delle questioni delle origini. La sua indagine, infatti, 6 S.A. Kauffman, 1993, p. 285.
251
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
prende le mosse da uno degli esiti più interessanti dell'attuale ricerca fisico-chimica: la scoperta che la tipologia dei sistemi naturali è molto più ampia e più diversificata di quanto non ritenesse la dinamica classica. Da tale scoperta, oltre allo studio dei sistemi classici il cui comportamento è .descrivibile in termini di attrattori puntiformi o ciclici, si è sviluppato lo studio di sistemi il cui comportamento è descrivibile in termini di «attrattori strani» (o sistemi caotici), nonché lo studio dei sistemi definiti all'« orlo del caos». In questa nuova tipologia, i sistemi viventi in evoluzione perdono la loro tradizionale estraneità rispetto ai sistemi fisico-chimici e il loro comportamento può venir messo in relazione con i nuovi tipi di comportamento studiati dalla dinamica del caos. La tesi fondamentale di Kauffman, articolata sulla base sia delle modellizzazioni dei sistemi complessi sia di molteplici processi di simulazione al computer, è la seguente: nell'evoluzione dei sistemi viventi, la selezione naturale darwiniana svolge certo un'importante ruolo creatore; ma non è onnipotente, perché in questi stessi sistemi si trova una forte impronta dei processi di auto-organizzazione di origine fisico-chimica. Ciò equivale a dire che molte proprietà dei sistemi viventi non sarebbero state acquisite grazie alla selezione naturale, ma nonostante la selezione naturale: sarebbero tracce delle radici fisico-chimiche del mondo vivente che gli eventi storici possono completare, arricchire, inverare, concretizzare, ma non annullare o cancellare. Fra selezione naturale e auto-organizzazione vi sarebbe dunque una relazione di complementarità e di cooperazione, non di indifferenza o di meccanica divisione dei ruoli. L'opera di Kauffman risulta un approfondimento, qualitativo e quantitativo, dell'intuizione di Gould secondo cui la selezione naturale sarebbe sempre e comunque sottoposta ai vincoli architettonici dell'organismo. Nello stesso tempo, Kauffman ricerca leggi della forma (vincolanti la storia piuttosto che da questa vincolate), che da Geoffroy de Saint-Hilaire e Goethe a Waddington e a Goodwin tanto interesse e tante passioni hanno suscitato. Secondo Kauffman non solo leggi di questo tipo emergono dall'analisi delle dinamiche auto-organizzatrici dei sistemi biologici, ma sono anche pertinenti per comprendere meglio i meccanismi dello sviluppo e i punti oscuri dell'evoluzione (comprese le cruciali questioni degli equilibri punteggiati e dell'esplosione cambriana). Il suo obiettivo è comunque quello di creare una teoria più ampia del darwinismo, e non una sua semplice sostituzione: in consonanza, dunque, con l'espansione del darwinismo che, come abbiamo visto, si è delineata negli ultimi decenni. Alla fine del secolo, le scienze evolutive riconoscono un ruolo importante alla contingenza nella creazione delle novità della storia naturale e attribuiscono nel contempo un accresciuto ruolo alle regolarità fisico-chimiche di fondo nelle dinamiche complessive dell'universo vivente. Naturalmente, questi due aspetti possono essere considerati anche in contraddizione, qualora si intendano come inevitabilmente contrapposte le due tradizioni: evoluzione darwiniana, storicità, contingenza versus svi-
www.scribd.com/Baruhk
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane
luppo, morfologia, leggi della forma. Ma pare proprio la natura stessa delle possibili leggi della forma a escludere questa contrapposizione: sono infatti leggi che si situano a un livello di generalità e di generatività estreme; sono proscrittive (vietano certi stati di cose) ma non prescrittive (lasciano aperti insiemi di possibilità); sono compatibili con innumerevoli decorsi evolutivi attuali o virtuali, non solo sul nostro pianeta, ma anche in tutto l'universo. Leggendo insieme le opere di scienziati quali Gould e Kauffman, pur molto diverse e talvolta divergenti per stili, obiettivi e campi disciplinari, si ha l'impressione che stia emergendo una nuova, coerente trama di fondo delle scienze evolutive, che si connette profondamente all'evoluzione delle scienze nel loro complesso. Dopo aver cercato di definire forme senza storia oppure, al contrario, una storia senza forme, le scienze evolutive oggi in vari modi cercano di studiare la coevoluzione delle storie e delle forme. Forse è una soglia decisiva attraverso la quale si delinea una scienza in grado di concepire la « sontuosa complessità » della natura e del cosmo.
253
www.scribd.com/Baruhk
CAPITOLO
SETTIMO
Il sistema immunitario DI GILBERTO CORBELLINI
I
·
INTRODUZIONE
L'immunologia è probabilmente la scienza biomedica che durante gli ultimi quattro decenni è andata incontro al più consistente sviluppo conoscitivo, sia in termini di quantità di informazioni fondamentali acquisite attraverso la ricerca di laboratorio, sia per la rilevanza concettuale e le ricadute pratiche di tali informazioni. Ciò ha significato ovviamente anche un incremento considerevole del numero di ricercatori, di istituti e di laboratori dediti allo studio della funzione immunitaria, nonché di riviste specializzate, di convegni e di società intese a promuovere lo sviluppo della ricerca immunologica. Verso la fine degli anni settanta, cioè dopo le più significative scoperte sulle basi molecolari e cellulari dell'immunità, facevano la loro comparsa anche i primi studi storici di qualche rilievo sull'evoluzione dell'immunologia. Dal punto di vista della ricerca fondamentale, gli aspetti che hanno maggiormente caratterizzato lo sviluppo scientifico dell'immunologia hanno riguardato la definizione e la descrizione delle proprietà adattative dell'immunità, e il potenziale euristico delle strategie di ricerca sperimentale dispiegate per giungere alla descrizione dei processi fisiologici da cui tali proprietà adattative dipendono. Attraverso i successivi tentativi di definire la natura e l'origine delle caratteristiche adattative della funzione immunitaria, l'immunologia si è progressivamente affrancata dai vincoli concettuali e accademici che storicamente la legavano alla microbiologia medica e alla patologia sperimentale, diventando negli anni cinquanta e sessanta una scienza biologica fondamentale a tutti gli effetti. Più recentemente lo sviluppo di sofisticati sistemi di indagine fisica e biochimica delle cellule e dei fattori umorali dell'immunità, e l'applicazione delle tecnologie biogenetiche, ha portato a scoperte le cui valenze conoscitive sarebbero risultate sempre più frequentemente di interesse biologico generale. Lo studio dell'immunità adattativa ha infatti prodotto acquisizioni concettuali ed empiriche molto importanti dal punto di vista della genetica molecolare delle cellule somatiche e delle basi fisiologiche delle interazioni comunicative fra le cellule nel corso dello sviluppo, nonché indicazioni euristiche circa i principi e i meccanismi che governano il funzionamento di altri sistemi fisiologici adattativi, come per esempio il sistema nervoso. 254
www.scribd.com/Baruhk
Il sistema immunitario II
· L'EVOLUZIONE
DEL
CONCETTO
DI
IMMUNITÀ
ADATTATIVA
Durante gli ultimi due decenni del secolo scorso, lo studio della patologia comparata dell'infiammazione e delle reazioni prodotte dai sieri degli animali immunizzati dimostrava che le risposte difensive dell'organismo all'aggressione di agenti patogeni e alle sostanze tossiche potevano essere suddivise in risposte naturali o innate o aspecifiche e in risposte adattative o acquisite o specifiche. Le risposte innate, che si manifestavano principalmente attraverso l'attività di cellule che si mostravano in grado di fagocitare materiali estranei e l'azione di fattori solubili non specifici, sarebbero state caratterizzate come le resistenze fondamentali e filogeneticamente più arcaiche alla malattia. Le risposte adattative presentavano invece alcune proprietà più interessanti, come il fatto di essere specifiche, cioè dirette solo contro l'agente o la sostanza che le aveva stimolate, e di comportare cambiamenti nella capacità di rispondere a successive stimolazioni della medesima natura. Quest'ultimo aspetto sarebbe stato definito come memoria immunitaria, e, insieme alla proprietà di riconoscimento del se!/ e del not se!/, cioè alla capacità dell'organismo di discriminare fra i propri costituenti molecolari e quelli estranei, avrebbero rappresentato le connotazioni più significative dell'immunità adattativa. La definizione dei meccanismi fisiologici da cui dipende l'immunità adattativa è scaturita da un'articolata evoluzione concettuale e metodologica, che ha prodotto una svolta anche nel modo di pensare la natura e l'origine delle risposte adattative acquisite a livello individuale dagli organismi superiori. r) Le radici storiche dell'immunologia
Negli ultimi decenni del secolo scorso, lo studio sperimentale dei meccanismi
di trasmissione e dei sistemi di prevenzione delle malattie infettive aveva indirizzato l'interesse dei microbiologi verso il fenomeno dell'immunità, portando alla scoperta che l'organismo risponde all'aggressione di agenti patogeni e sostanze tossiche, sia attraverso la mobilitazione delle cellule responsabili delle reazioni infiammatorie, sia con la produzione di sostanze in grado di neutralizzare specificamente l'azione dei microbi e delle tossine. In tale contesto storico-problematico gli aspetti fondamentali della ricerca immunologica erano rappresentati dai tentativi di applicare le teorie fisiologiche e biochimiche riguardanti le funzioni delle cellule batteriche e tissutali alle emergenti proprietà delle risposte immunitarie. Lo zoopatologo russo Elie Metchnikoff (r845-1916) fu il primo a sostenere, negli anni ottanta del secolo scorso, che l'acquisizione dell'immunità rappresentava una risposta fisiologica attiva dell'organismo ad agenti patogeni esterni. Prima di lui lo sviluppo dell'immunità, per esempio conseguentemente alla guarigione da una infezione o all'inoculazione dell'agente infettivo in forma attenuata, veniva spiegato nei termini di un esaurimento di processi fermentativi o di un substrato nutritivo necessario alla proliferazione dell'agente patogeno e quindi dell'infezione: in pratica l'acquisizione dell'immunità era vista come un processo di tipo passivo. 255
www.scribd.com/Baruhk
Il sistema immunitario
Partendo da ricerche di embriologia comparata Metchnikoff concepì l'ipotesi che le risposte immunitarie dipendessero dall'attività fagocitica dei leucociti, e che l'acquisizione dell'immunità fosse dovuta a un'aumentata «suscettibilità» di queste cellule (teoria della fagocitosi). Nella concezione di Metchnikoff l'immunità rappresentava la manifestazione di un principio che egli riteneva alla base dell'integrazione funzionale dell'organismo, e per cui le proprietà fisiologiche individuali erano il prodotto emergente di interazioni competitive fra cellule somatiche con origini filogenetiche diverse. L'approccio olistico di Metchnikoff, incentrato su cellule dotate di attività immunitaria aspecifica, dovette presto fare i conti con il prevalere nell'ambito della ricerca microbiologica e fisiologica di fine Ottocento di un atteggiamento analitico, sia in termini metodologici sia per quanto riguardava i livelli di organizzazione della materia vivente presi in esame. La scoperta dell'antitossina, ovvero dell'anticmpo, da parte di Emil von Behring (1854-1917)e Shibasaburo Kitasato nel 1890, stabiliva un fondamentale riferimento empirico per le nascenti «teorie umorali » dell'immunità, che sarebbero state contrapposte all'approccio «cellulare» di Metchnikoff. Dallo studio sperimentale delle condizioni che portavano alla produzione dell'anticorpo, emergeva come nozione generale che l'inoculazione in un animale di una sostanza estranea, che sarebbe stata chiamata antigene, induceva la comparsa nel sangue di quell'organismo di un fattore umorale, l'anticorpo appunto, in grado di interagire specificamente, in vivo e in vitro, con l'antigene. Questa dimensione adattiva dell'immunità, che venne descritta in molte delle sue possibili manifestazioni attraverso lo studio delle reazioni a cui potevano dar luogo i sieri di animali immunizzati, fu spiegata secondo due prospettive completamente antitetiche. Il biochimico tedesco Hans Biichner (1850-1902) ipotizzò nel 1893 che l'organismo rielaborasse la sostanza antigenica, trasformandola nell'anticorpo specifico. Questa teoria, che veniva considerata dalla maggior parte dei ricercatori la soluzione più ragionevole del problema, fu confutata da esperimenti che mostravano come non vi fosse alcun rapporto tra la quantità e la natura dell'antigene inoculato, e la quantità e la composizione dell'anticorpo prodotto. Per contro, il medico tedesco Paul Ehrlich suggeriva nel 1897, che gli anticorpi non fossero altro che catene laterali preesistenti sul protoplasma delle cellule, le quali normalmente servivano a legare le sostanze nutritizie necessarie alla cellula. Le catene laterali potevano legarsi però anche a sostanze tossiche, che casualmente avevano la stessa struttura molecolare dei nutrienti, e ciò determinava un danno funzionale alla cellula. Questa reagiva producendo, per un fenomeno di sovracompensazione, catene laterali dello stesso tipo in eccesso, che venivano immesse nel circolo sanguigno come anticorpi. La teoria delle catene laterali di Ehrlich era fondata sull'assunzione che la specificità dell'interazione fra l'antigene e l'anticorpo fosse discreta e assoluta, ovvero che l'interazione fra le strutture molecolari dell'anticorpo e dell'antigene dipendesse da
www.scribd.com/Baruhk
Il sistema immunitario
un adattamento ·stereocomplementare preciso ed esclusivo, e la dinamica chimica della reazione fosse governata da legami chimici forti (covalenti). In quanto assumeva la preesistenza dell'anticorpo e la sua sovrapproduzione differenziale come conseguenza del riconoscimento fra l'anticorpo e l'antigene, la teoria delle catene laterali venne interpretata, già agli inizi del secolo, come un esempio di spiegazione selettiva o darwiniana di un adattamento cellulare acquisito, mediante l'uso, a livello della fisiologia individuale. Diverse esperienze rilevavano, sin dagli ultimi anni dell'Ottocento, che nel siero sanguigno erano normalmente presenti degli anticorpi, come per esempio quelli diretti contro gli antigeni dei gruppi sanguigni, per cui la teoria ehrlichiana poteva anche risultare empiricamente plausibile. Tuttavia la pratica sierodiagnostica registrava l'esistenza di reazioni incrociate, vale a dire che un siero immune poteva reagire con minore specificità anche con antigeni diversi da quello che aveva stimolato la risposta immunitaria, confutando di fatto l'assunto ehrlichiano che l'antigene e l'anticorpo interagissero in modo completo, e quindi che la specificità dell'interazione fosse discreta e assoluta. Inoltre nel 1906 Friedrich Obermayer ed Ernst P. Pick scoprivano la possibilità di provocare una risposta specifica nei confronti di antigeni artificiali, per cui diventava enorme il numero delle catene laterali o anticorpi di cui si sarebbe dovuto ammettere la preesistenza. E ciò rendeva difficilmente sostenibile l'ipotesi ehrlichiana circa il meccanismo di formazione dell'anticorpo. 2) Spiegazione chimica versus spiegazione biologica dell'immunità adattativa
Per quasi mezzo secolo la ricerca immunologica fondamentale avrebbe ricavato dalle emergenti nozioni sulle basi chimiche e fisico-chimiche delle interazioni fra anticorpo e antigene le indicazioni circa il meccanismo che consentiva all'organismo di rispondere alla sfida antigenica sintetizzando l'anticorpo adatto. Infatti i problemi principali dell'immunochimica, così come erano stati definiti già nel 1907 dal fisicochimico Svante Arrhenius riguardavano essenzialmente l'analisi quantitativa delle reazioni immunitarie, a cui si sarebbero affiancate negli anni venti, le ricerche indirizzate anche a stabilire la natura dell'anticorpo, e a quantificare l'ordine dei siti di combinazione fra le molecole e le forze coinvolte nell'interazione. Per quasi tutta la prima metà del Novecento la specificità delle reazioni immunitarie sarebbe stata considerata come esemplificativa della specificità che caratterizza gran parte delle interazioni fra le sostanze biologiche, e le teorie sulla natura e l'origine della specificità immunologica vennero utilizzate anche per spiegare altre fenomenologie funzionali, come per esempio la selettività delle interazioni cellulari durante l'embriogenesi o il meccanismo della sintesi proteica. Gli studi sperimentali sulla natura della specificità immunologica condotti a partire dal 1917 dal patologo e immunochimico Karl Landsteiner (1868-1943) dimostrarono il carattere stereocomplementare del riconoscimento antigene-anticorpo, come sostenuto da Ehrlich, ma evidenziarono anche l'eterogeneità degli anticorpi prodotti 257
www.scribd.com/Baruhk
Il sistema immunitario
in risposta a un dato antigene. Landsteiner studiò la risposta immunitaria nei confronti di costituenti chimici prodotti coniugando piccole molecole organiche sintetiche alle proteine e stabilì che questi gruppi chimici artificiali, che denominò apteni, venivano riconosciuti dall'anticorpo con una precisione tale da discriminare fra due isomeri otticamente attivi della stessa molecola, e diventavano immunogenici soltanto se agganciati a un vettore (effetto carrier). In tal senso egli concepì l'importante distinzione fra potere antigenico e potere immunogenico di una sostanza estranea, vale a dire fra il riconoscimento stereocomplementare da parte dell'anticorpo del determinante antigenico e l'attivazione di una risposta immunitaria con l'aumento degli anticorpi specificamente diretti contro quell'antigene. Dato che non si sapeva pressoché nulla sulle caratteristiche biochimiche dell' anticorpo, mentre risultava possibile indurre l'organismo a reagire contro qualsiasi struttura chimica estranea purché fosse adeguatamente presentata, era intuitivo assumere per gli immunochimici che la formazione dell'anticorpo specifico awenisse sotto la guida diretta o indiretta dell'antigene, cioè che l'antigene svolgesse un ruolo informativo, funzionando da stampo per la costruzione della struttura anticorpale di riconoscimento. A partire dalla fine degli anni venti furono immaginati diversi meccanismi che in linea di principio potevano spiegare come l'antigene riuscisse a imprimere la sua forma su una molecola anticorpale indifferenziata. Fra queste ipotesi che assumevano un meccanismo di formazione dell'anticorpo in cui l'antigene funzionava da «stampo diretto», ebbe grande successo quella concepita, nel 1940, dal chimico americano Linus Pauling (1901-95). Richiamandosi alle sue ricerche sulla denaturazione e coagulazione delle proteine, Pauling riteneva che le molecole di anticorpo differissero dalla « globulina normale soltanto nella configurazione delle catene », cioè nel modo in cui le catene si awolgevano nella molecola; tale modo era determinato dalla presenza dell'antigene nell'ambiente di formazione dell'anticorpo. Le forze a breve raggio d'azione, vale a dire le forze intermolecolari non covalenti, come i legami idrogeno e le forze di Van der Waals, erano responsabili secondo Pauling della specificità immunologica. L'eterogeneità degli anticorpi dipendeva a sua volta dalle caratteristiche dell'antigene, che trasportava più determinanti intorno ai quali la molecola di globulina poteva awolgersi, e dalle forze deputate a stabilizzare l' awolgimento complementare delle globuline, che rendevano possibile una grande varietà di configurazioni diverse. Il modello di Pauling poteva spiegare le basi chimiche delle interazioni fra l'antigene e l'anticorpo e dell'eterogeneità, ma non era in grado di dar conto né della maggiore efficacia delle risposte secondarie, con il caratteristico incremento dell' affinità degli anticorpi per l'antigene, che dimostrava l'esistenza di una forma di memoria immunitaria, né dell'acquisizione della tolleranza immunitaria, cioè della scoperta che l'organismo, durante le fasi iniziali dell' ontogenesi, poteva « imparare » a riconoscere dei componenti estranei come propri. Il concetto di tolleranza immunitaria venne formulato, fra il 1941 e il 1949, dal
www.scribd.com/Baruhk
Il sistema immunitario
patologo e virologo australiano Franck Macfarlane Burnet (1899-1985). Burnet aveva osservato che i polli non erano in grado di formare anticorpi contro il virus influenzale inoculato allo stato embrionale. Nel 1945 Ray D. Owen scopriva che i gemelli bovini non identici, che abbiano condiviso la circolazione sanguigna a causa della fusione delle placente, erano delle chimere nelle cui vene circolavano cellule di entrambi i gruppi sanguigni, e ciò spiegava la tolleranza naturale verso le reciproche cellule sanguigne. Fra il 1944 e il 1953 lo zoologo inglese Peter B. Medawar (1915-87) e il biologo cecoslovacco Milan Hasek dimostravano quindi la possibilità di indurre artificialmente la tolleranza immunitaria, cioè che così come si poteva immunizzare attivamente un organismo nei confronti di un dato antigene, analogamente si poteva far sì che acquisisse in modo attivo la capacità di non rispondere a quell'antigene specifico. Per Burnet il fenomeno della tolleranza immunitaria dimostrava che il problema dell'immunità non riguardava soltanto le modalità attraverso cui l'organismo riconosce e neutralizza gli antigeni estranei, ma anche come riesca a evitare di reagire contro i propri costituenti, ovvero a discriminare fra i costituenti molecolari propri, che egli avrebbe chiamato il se!/ e quelli estranei, il not self Nel 1941 Burnet cercò di contrastare il prevalere di un approccio meramente chimico all'immunità, collegando le questioni immunologiche a quelle discusse negli stessi anni dai microbiologi e dai biochimici in relazione alla capacità dei microrganismi di rispondere adattativamente, con la sintesi di opportuni enzimi, alle variazioni ambientali (adattamento enzimatico). In un volumetto intitolato The Production o/ Antibodies, che nella prima edizione raccoglieva contributi di diversi microbiologi australiani, e che nel 1949 venne ripubblicato con radicali modifiche a firma di Burnet e Frank Fenner (n. 1914), si riconosceva un'analogia tra la risposta immunitaria e le risposte adattative dei batteri a nuovi substrati. La teoria di Burnet e Fenner fu definita dallo stesso Burnet, per distinguerla da quella di Pauling, dello «stampo indiretto», e manteneva il concetto che l'informazione per l'anticorpo specifico fosse trasportata dall'antigene, il quale però agiva modificando un enzima che diventava il diretto responsabile della sintesi della globulina specifica. Dal momento che la risposta adattativa dei microrganismi al cambiamento del terreno di coltura avveniva con la produzione dell'enzima adatto in tempi molto brevi, la spiegazione più diffusa dell'adattamento enzimatico assumeva l'esistenza di un meccanismo fisiologico, interno al batterio, modificabile direttamente dal substrato. Questo tipo di spiegazione presentava evidenti connotati lamarckiani. In tal senso è interessante notare come Burnet, che sarebbe diventato il campione di quello che egli stesso definì l'« approccio darwiniano all'immunità», trovava del tutto congeniale questa impostazione del problèma dell'immunità adattativa. Del resto, quando era molto giovane, cioè nel 1925, egli aveva concepito una teoria della formazione dell'anticorpo che applicava le idee lamarckiane di Richard Semon sui rapporti fra memoria individuale e memoria ereditaria. 259
www.scribd.com/Baruhk
n sistema
immunitario
3) Le origini della teoria della selezione clonale
Nell'ambito della ricerca microbiologica e biochimica, a partire dagli anni quaranta, cominciò ad affermarsi un diverso modo di pensare il problema dell'adattamento microbico, che avrebbe profondamente influenzato anche l'evoluzione teorica dell'immunologia. Nel 1943 Salvator Luria e Max Delbriick dimostravano la natura spontanea delle mutazioni batteriche, ponendo le basi per la nascita della genetica batterica. Si trattava di un evento fondamentale nella storia del pensiero biologico, in quanto la scoperta che la comparsa di batteri resistenti al virus batteriofago era il risultato della selezione di specifici mutanti, abbatteva uno degli ultimi baluardi del lamarckismo, rappresentato dalla generalizzazione delle teorie istruttive dell'adattamento enzimatico. Durante gli anni cinquanta le informazioni acquisite attraverso l'analisi a livello chimico e fisico sulle caratteristiche dei fenomeni microbiologici, cominciavano a essere inquadrate secondo una visione biologica, e il risultato più significativo di tale processo fu la nascita della biologia molecolare. La biologia molecolare utilizzava la conoscenza delle proprietà fisiche e chimiche degli acidi nucleici (DNA e RNA) per definire le caratteristiche funzionali delle molecole informazionali, cioè la loro capacità di garantire la replicazione, la trasmissione e la traduzione dell'informazione ereditaria. Ma il significato biologico di tali strutture non era comunque riconducibile ai concetti e alle teorie chimiche e fisiche. La loro funzionalità adattativa trovava infatti un senso solo nel contesto della spiegazione darwiniana dell'evoluzione. Fu all'interno di questo clima teorico che maturarono le condizioni anche per una ridefinizione delle basi funzionali dell'immunità adattativa. n primo a ipotizzare che la formazione dell'anticorpo fosse il risultato di un processo di selezione che avveniva all'interno dell'organismo fu l'immunologo danese Niels Kaj Jerne (19II-95), che studiando quantitativamente la fenomenologia della neutralizzazione delle tossine difteriche aveva verificato nella seconda metà degli anni quaranta l'intrinseca variabilità delle risposte immunitarie all'antigene. Jerne ragionò sul possibile significato funzionale della diversità degli anticorpi presenti nel siero immune, influenzato dalle sue frequentazioni dei problemi della biometria. Nel 1955 l'immunologo danese concepì una «teoria della formazione degli anticorpi basata sulla selezione naturale», che assumeva la preesistenza dell'anticorpo all'incontro con l'antigene, e attribuiva al riconoscimento dell'antigene la funzione di « segnale per la sintesi o riproduzione di molecole identiche a quella introdotta, cioè anticorpi specifici». Usando un'espressione mutuata dal linguaggio della genetica evoluzionistica, Jerne affermava che il rilascio di queste molecole in circolazione spostava «la composizione della popolazione delle molecole di globulina circolanti». L'ipotesi di Jerne era in realtà molto vaga e conteneva diverse assunzioni sbagliate, come per esempio che gli anticorpi naturali si trovavano liberi in circolazione e che l'incontro fra anticorpo e antigene determinava il trasporto dell'anticorpo all'in260
www.scribd.com/Baruhk
Il sistema immunitario
terno di cellule macrofagiche deputate alla sua riproduzione. Tuttavia la pubblicazione della teoria di Jerne stimolò l'immunologo americano David Talmage (n. 1919) e Burnet a formulare, nel 1957, un'ipotesi selettiva della formazione dell'anticorpo in cui il bersaglio della selezione diventavano le cellule produttrici di anticorpi. Talmage fu il primo a suggerire una base cellulare per la selezione, ma a Burnet si deve la concezione della teoria selettiva dell'immunità acquisita che sarebbe stata riconosciuta formalmente corretta in quanto basata sul concetto di selezione clonale. L'immunologo australiano riteneva il suo approccio «essenzialmente un tentativo di applicare il concetto della genetica popolazionale ai cloni di cellule mesenchimali nell'organismo». In base alla teoria della selezione clonale ogni struttura anticorpale era il prodotto di un clone di cellule e ogni cellula aveva spontaneamente a disposizione sulla sua superficie un unico sito reattivo equivalente a quello della globulina che produceva. In tal senso la proliferazione differenziale veniva indotta fra quelle cellule che presentavano i siti reattivi dell'anticorpo corrispondenti ai determinanti presenti sull'antigene utilizzato. Il risultato pratico era un « cambiamento nella composizione di molecole globuliniche, allo scopo di fornire un eccesso di molecole in grado di reagire con l'antigene». In base alla teoria della selezione clonale la tolleranza immunitaria era il risultato di una selezione negativa, operata nella fasi dello sviluppo embrionale, delle cellule portatrici di motivi anticorpali in grado di reagire con costituenti propri dell'organismo: le cellule autoreattive venivano cioè eliminate dalla circolazione. Un inquadramento genetico-molecolare della teoria della selezione clonale, che includeva un'ipotesi sull'origine della tolleranza basata sulla selezione delle cellule autoreattive come conseguenza dell'incontro con l'antigene, fu elaborato nel 1959 dal microbiologo Joshua Lederberg (n. 1925). Il primo tentativo di dimostrare uno degli assunti chiave della teoria di Burnet, cioè che ogni cellula produceva un solo tipo di anticorpo, fu realizzato nel 1959 da Gustav Nossal (n. 1931) e da Lederberg nel laboratorio dello stesso Burnet, a Melbourne, attraverso una tecnica che consentiva di identificare la presenza di un tipo di anticorpo prodotto da una singola cellula. Utilizzando come antigeni di riferimento due tipi di flagelli di un batterio, essi osservarono che mentre diverse cellule producevano anticorpi in grado di immobilizzare i flagelli del microbo, nessuna cellula fabbricava anticorpi verso i due tipi di flagelli. Alcuni esperimenti davano tuttavia risultati contrastanti, che sembravano confutare quella che era considerata l'implicazione fondamentale della teoria di Burnet, «una cellula - un anticorpo». Nel corso degli anni sessanta furono comunque sviluppati diversi sistemi sperimentali che in pratica confermarono l'unispecificità degli anticorpi prodotti da singole cellule. Ulteriori conferme della teoria di Burnet sarebbero derivate dall'identificazione, nel corso degli anni sessanta, delle immunoglobuline come recettori di superficie di linfociti coltivati o di cellule spleniche da cui discendono le cellule secernenti l'anticorpo.
www.scribd.com/Baruhk
Il sistema immunitario
n modello della selezione clonale si sarebbe dimostrato corretto come spiegazione della specificità, della memoria immunitaria e del riconoscimento del sel/ e del not self, sia nel contesto della risposta anticorpale, sia in relazione alla fisiologia delle risposte cellulari mediate dalle popolazioni linfocitarie che maturano nel timo. Naturalmente la descrizione dei processi di interazione fra le cellule immunitarie avrebbe mostrato che i meccanismi attraverso cui vengono ottenuti i risultati funzionali sono estremamente più articolati e diversificati di quanto Burnet potesse prevedere. 4) La teoria della selezione clonale e le spiegazioni dell'adattamento funzionale
Talmage e Burnet compresero che la dinamica fisiologica attraverso cui si manifestavano le proprietà adattative dell'immunità non poteva essere ricondotta a nessuna delle idee correnti riguardanti i meccanismi dell'adattamento fisiologico, in particolare alla logica funzionale dei meccanismi omeostatici. La spiegazione selezionistica dell'immunità adattativa implicava un nuovo modello dell'adattamento funzionale, secondo il quale accanto ai meccanismi omeostatici, basati su risposte predefinite evolutivamente, sussistevano potenzialità adattative dipendenti dagli stimoli esterni, e che assumevano un'organizzazione darwiniana del sistema fisiologico, che nella fattispecie era quello immunitario, analoga a quella delle popolazioni biologiche in grado di adattarsi all'ambiente per selezione naturale. Talmage faceva osservare che i meccanismi omeostatici possono controllare risposte adattative predefinite, attraverso la modificazione della concentrazione di una particolare sostanza naturale, come un ormone, o il glucosio o l'albumina. La risposta anticorpale è invece di tipo acquisito, ovvero dipende da uno stimolo esterno e solo i cambiamenti cellulari dovuti a un processo di « replicazione differenziale » possono spiegare i potenti effetti di una risposta adattativa come quella immunitaria. Burnet da parte sua riteneva che l'ipotesi della selezione clonale intrattenesse un rapporto di analogia ben più che formale con la teoria darwiniana della selezione naturale: cioè che l'accettazione di questo punto di vista da parte della biologia funzionale comportasse una fondamentale rivoluzione concettuale. I biologi avevano sempre pensato che l'organismo, «in qualsiasi momento e indipendentemente dalle sue caratteristiche evolutive, [fosse] un meccanismo funzionale definito una volta per tutte, e [che] qualsiasi potenzialità di modificazione dell'individuo [fosse] di tipo definitivo piuttosto che casuale-selettivo. Credo che ciò sia oramai inammissibile, - proseguiva Burnet - non solo in relazione allo sviluppo dell'immunità, ma anche per lo sviluppo della funzione nervosa, soprattutto ai livelli superiori» (Burnet, 1965). Le evidenze, di tipo genetico-molecolare e cellulare, che le proprietà adattative del sistema immunitario, come la capacità di riconoscere e discriminare il self dal not self, e la memoria, sono realmente il risultato di eventi selettivi indusse altri immunologi, dopo Burnet, a ipotizzare che anche il sistema nervoso esplicasse le sue funzioni cognitive in quanto sede di dinamiche selettive. Durante gli anni ses-
www.scribd.com/Baruhk
n sistema
immunitario
santa e settanta questa analogia fu proposta a più riprese, sino alla formulazione, nel 1977, della teoria della selezione dei gruppi neuronali, o darwinismo neurale, da parte di Gerald Edelman. Le teorie neurobiologiche di Edelman sono esposte nel capitolo di Alberto Olivedo dedicato alle neuroscienze. Tuttavia è opportuno ricordare che le ipotesi, i concetti e i dati sperimentali che avrebbero consentito a Edelman di applicare un modello selezionistico allo sviluppo e al funzionamento del cervello scaturivano dalle ricerche di immunologia molecolare attraverso cui Edelman descrisse, durante gli anni sessanta, la struttura dell'anticorpo.
E
LA
III · IL
PROBLEMA
NASCITA
DELL'IMMUNOLOGIA
DELL'ANTICORPO MOLECOLARE
Secondo Edelman l'anticorpo «ha rappresentato per l'immunologia quello che il DNA ha rappresentato per la biologia molecolare » (Edelman, 1994). Attraverso l'indagine sierologica, biochimica e genetico-molecolare sulla struttura e la biosintesi dell'anticorpo sono emerse nozioni fondamentali non solo per la comprensione dei meccanismi immunitari, ma anche per lo sviluppo delle conoscenza sulla biologia molecolare delle cellule somatiche e sulle proprietà dei sistemi di riconoscimento e interazione fra le cellule durante i processi dell' ontogenesi. 1) La struttura dell'anticorpo
Prima della fine degli anni cinquanta tutte le informazioni riguardanti l'anticorpo erano state acquisite indirettamente, cioè attraverso inferenze ricavate dalle caratteristiche chimiche degli antigeni, soprattutto quelli artificiali, utilizzati per lo studio in vivo e in vitro delle reazioni immunitarie. La natura proteica dell'anticorpo era stata stabilita nel 1926 da Lloyd D. Felton e G.H. Bailey, e confermata indirettamente attraverso gli studi quantitativi e qualitativi di Michael Heidelberger e Forrest E. Kendall delle reazioni di precipitazione dei complessi antigene-anticorpo. Nel 1938 il chimico svedese Arne Tiselius e il microbiologo americano Elvin Kabat, applicando l'analisi elettroforetica al siero, mostravano che gli anticorpi erano contenuti nella frazione che migrava più lentamente lungo il gradiente di potenziale. Tale frazione fu denominata «gamma », da cui il nome di gammaglobulina, che fu utilizzato come sinonimo di anticorpo sino agli anni sessanta. La tecnica dell'elettroforesi, in fase libera e in gel, consentì di differenziare gli anticorpi non solo a partire dalle loro caratteristiche fisiche (carica elettrica e peso molecolare), ma anche per quanto riguardava le funzioni biologiche (capacità di fissare il complemento, passaggio attraverso la placenta, ecc.), e proprio il perfezionamento di questa tecnica consentì di verificare che il siero immune conteneva diversi tipi di anticorpi o immunoglobuline, successivamente caratterizzati sulla base
www.scribd.com/Baruhk
Il sistema immunitario
delle loro differenze strutturali e funzionali come classi o isotipi IgG, IgM, IgA, IgD e IgE. Poiché lo sviluppo dell'indagine elettroforetica e biochimica stava creando problemi terminologici, nel 1964 un comitato ad hoc fu istituito nell'ambito dell'Unità di immunologia dell'Organizzazione mondiale della sanità, che introduceva il termine immunoglobulina (abbreviato Ig) come sinonimo di anticorpo. A metà degli anni cinquanta cominciava a essere studiata in modo sistematico l' antigenicità degli anticorpi, cioè gli anticorpi venivano trattati come antigeni e si utilizzava la loro stessa specificità per identificarne le caratteristiche biologiche. All'Institut Pasteur di Parigi Jacques Oudin, che immunizzava conigli con anticorpi provenienti da altri conigli, scopriva nel 1956 i marcatori allotipià, cioè la specificità sierologica individuale delle popolazioni anticorpali all'interno della specie. Nello stesso anno furono descritti dallo svedese Rune Grubb anche gli allotipi umani. Tali ricerche mostrarono che i determinanti antigenici intraspecifici presenti sugli anticorpi erano geneticamente determinati: vale a dire che le differenze antigeniche riflettevano differenze strutturali primarie negli anticorpi stessi che rimandavano ai relativi geni. Gli esperimenti d'incrocio e lo studio della correlazione tra i determinanti allotipici e quelli isotipici, che definiscono la classe funzionale dell'anticorpo, mostravano inoltre che alla sintesi dell'anticorpo concorreva più di ·un gene. Nel contesto degli studi sierologici sull'anticorpo fu riconosciuta nel 1963 da Henry Kunkell'esistenza di un marcatore immunoglobulinico designante la specificità antigenica del singolo anticorpo, che sarebbe risultato localizzato nelle regioni che riconoscono l'antigene, ovvero nelle zone che sarebbero risultate variabili nella composizione degli amminoacidi. La « specificità antigenica individuale » di Kunkel fu descritta nello stesso anno anche dai francesi Oudin e M. Michel. Nel 1966 Oudin proponeva di chiamare « specificità idiotipica » questa caratteristica sierologica, e il concetto di « idiotipia » veniva accettato dal Congresso internazionale di immunologia del 1971. I dati empirici prodotti dallo studio dell'idiotipia di fatto crearono delle difficoltà alla ricerca sulla genetica molecolare dell'anticorpo, in quanto portarono all'introduzione di una complessa terminologia, lasciando scarsamente definiti i sistemi sperimentali. Inoltre il concetto di idiotipo venne presto utilizzato nell' ambito delle teorie sulla regolazione del sistema immunitario e lo sviluppo dei repertori. Le ricerche biochimiche e cristallografiche ai raggi X più recenti sulla struttura degli idiotipi hanno mostrato che diversi esempi considerati paradigmatici per lo studio dell'idiotipia implicavano in realtà altri tipi di determinanti antigenici (isotipici o allotipici). Inoltre per diversi anni è mancata, e in parte manca tutt'ora, una precisa definizione del fenomeno alla luce delle più recenti acquisizioni sui marcatori fenotipici che un'immunoglobulina può esprimere e sulle basi genetiche ed epigenetiche della sintesi degli anticorpi. Problemi di diversa natura venivano nel frattempo sollevati dall'analisi biochimica dell'anticorpo. Nel 1959 il ricercatore inglese Rodney Porter (1917-85) dimostrava che dalla gammaglobulina del coniglio trattata con papaina si formavano tre
www.scribd.com/Baruhk
Il sistema immunitario
frammenti, due dei quali, di identico peso· molecolare, sarebbero stati identificati come /rammenti che legano l'antigene (FAB), e l'altro come frammento cristallizzabile (Fc). Nello stesso anno Edelman otteneva con un diverso metodo delle subunità o catene polipeptidiche diverse da quelle di Porter, che tuttavia risultavano costitutive dei frammenti ottenuti per digestione enzimatica. Nel 1961 Edelman e Poulik stabilivano che le gammaglobuline erano composte di catene leggere (denominate L, da light), di peso molecolare circa 2o.ooo, e di catene pesanti (H, da heavy), di peso molecolare circa 5o.ooo. A quel punto si trattava di provare a sequenziare le catene polipeptidiche dell' anticorpo. Senonché l'eterogeneità degli anticorpi prodotti da organismi normali non consentiva di ottenere risultati confrontabili. La dimostrazione da parte di Edelman che le proteine tumorali presenti nei pazienti affetti da mieloma multiplo corrispondono alle catene leggere dell'anticorpo, con la sola differenza che sono catene immunoglobuliniche omogenee cioè con un'identica struttura chimica, metteva a disposizione delle molecole su cui si potevano sviluppare le tecniche di sequenziamento.1 Nel 1965 N. Hilschmann e L.C. Craig determinarono la prima sequenza completa delle catene leggere di una proteina mielomatosa, consistente di 214 unità amminoacidiche. Questo e altri dati empirici prodotti dal sequenziamento delle catene pesanti dimostravano che le catene polipeptidiche costitutive dell'anticorpo erano composte di regioni costanti (C) e regioni variabili (V). Nelle parti costanti si trovavano i marcatori funzionali (isotipici) e allotipici, mentre le parti variabili concorrevano a costituire il sito di combinazione con l'antigene. La prima struttura completa di una molecola immunoglobulinica fu presentata da Edelman nel 1969. La struttura convalidava i principali concetti descrittivi stabiliti nel decennio precedente e introduceva quello di dominio. Edelman e altri ricercatori avevano notato che certe regioni della molecola erano omologhe fra loro. Disponendo dell'intera struttura primaria, Edelman fu in grado di studiare questi rapporti di omologia, scoprendo che le immunoglobuline erano composte di domini costituiti da IIo residui amminoacidici, che potevano essere definiti «unità evolutive adattate a distinte e separate funzioni». I domini delle regioni variabili delle catene leggere e pesanti si erano cioè evoluti come regioni per il riconoscimento dell'antigene, mentre quelli costanti determinavano la funzione biologica dell'anticorpo. Come si è detto le informazioni biochimico-strutturali ~ull' anticorpo furono ottenute studiando le proteine mielomatose, che sono catene immunoglobuliniche omogenee naturalmente presenti negli individui affetti da mieloma multiplo. Tuttavia, le proteine mielomatose manifestavano una specificità casuale, mentre per comprenI Il mieloma multiplo è una proliferazione di tipo neoplastico delle plasmacellule, cioè della forma differenziata dei linfociti B che produce le immunoglobuline. Queste immunoglobuline, che sono dette monoclonali in quanto sono il prodotto
di una linea cellulare identica, furono scoperte nelle urine dei malati di mieloma multiplo dal medico inglese Henry Bence Jones nel 1847, per cui sono chiamate anche « proteine di Bence Jones >>.
www.scribd.com/Baruhk
n sistema
immunitario
dere sempre più nel dettaglio la struttura dell'anticorpo e la dinamica della risposta immunitaria sarebbe stato essenziale poter disporre di molecole di cui fosse nota la specificità. Tale condizione, auspicata dagli immunologi già negli anni sessanta, fu resa possibile dall'invenzione degli ibridami per la produzione di anticorpi manoclonali. Applicando ingegnosamente, ma anche grazie a una serie di circostanze fortuite, la tecnica sviluppata nei primi anni settanta per la produzione di eterocarioti, cioè di ibridi cellulari per fusione di due tipi di cellule somatiche, Cesar Milstein e George Kohler misero a punto, nel 1975, un sistema che consentiva di sfruttare l'immortalità caratteristica dei plasmocitomi, fondendoli però con una plasmacellula normale, ricavata dalla milza di un animale immunizzato con un antigene noto. Questa linea cellulare, detta ibridoma, era in grado di proliferare clonalmente, producendo l'anticorpo caratteristico della plasmacellula normale, che viene perciò detto anticorpo monoclonale. La tecnologia degli anticorpi monoclonali è andata incontro a continui perfezionamenti e sviluppi, rendendo queste molecole degli strumenti potentissimi e ormai indispensabili come reagenti per il riconoscimento e l'identificazione delle più diverse strutture organiche. 2) Le basi molecolari della diversità degli anticorpi
Il problema di quale potesse essere il meccanismo in grado di produrre un repertorio abbastanza grande di anticorpi diversi, come implicava la teoria della selezione clonale, era stato affrontato già nel 1959. Lederberg concepì una teoria basata sulla mutazione somatica, a livello dei segmenti polipeptidici dell'anticorpo, nel corso del differenziamento. Per contro l'immunologo Talmage pensava che tutto il repertorio anticorpale fosse già contenuto nel genoma. Le due cosiddette « ipotesi polari », quella della « linea somatica » e quella delle «linea germinale», furono quindi rielaborare secondo diverse versioni, che assumevano differenti ipotesi circa l' organizzazione dei geni o la natura delle mutazioni somatiche che potevano dare origine alla diversità degli anticorpi. La soluzione concettuale del problema viene fatta risalire all'ipotesi avanzata nel 1965 dagli immunologi statunitensi William J. Dreyer e Joe Claude Bennet, detta dei «due geni per una catena polipeptidica ». Il modello prevedeva una ricambinazione somatica di geni per le regioni costanti e per le regioni variabili delle catene dell'anticorpo e conteneva due congetture davvero innovative rispetto a quelli che erano considerati i principi della genetica molecolare: infatti assumeva che più di un gene potesse concorrere alla codificazione per una catena polipeptidica e che il genoma non si mantenesse inalterato durante l' ontogenesi e il differenziamento, ma andasse incontro a una riorganizzazione. La ricerca dei meccanismi effettivamente all'opera nella genesi della diversità anticorpale ha visto comunque confrontarsi modelli estremamente più sofisticati di quello di Dreyer e Bennet, concepiti anche per spiegare altri aspetti peculiari della struttura dell'anticorpo descritti dopo il 1965. Alcune di queste ipotesi cercavano per esempio 266
www.scribd.com/Baruhk
Il sistema immunitario
di uscire dalle strettoie concettuali stabilite dagli orientamenti polari prevalenti (germinale versus somatico), e di proporre soluzioni di portata generale, in grado di inquadrare anche le origini evolutive del meccanismo di biosintesi delle immunoglobuline. La descrizione delle basi molecolari del repertorio anticorpale fu il risultato del dispiegamento di diverse tecnologie biologiche che andavano dai metodi di purificazione e isolamento del RNA messaggero, all'uso degli enzimi di restrizione per sezionare il DNA, alle tecniche di ibridazione degli acidi nucleici, alla clonazione e sequenziamento del DNA, sino al trasferimento di geni per transfezione e alla creazione di animali transgenici. Nel 1976 Susumo Tonegawa scopriva, utilizzando gli enzimi di restrizione e confrontando il DNA di un plasmocitoma e di un embrione di topo, la « ricombinazione somatica » dei geni durante il differenziamento. In pratica dimostrava che l'assetto dei geni per la catena leggera era diverso nelle cellule embrionali e in quelle che producono gli anticorpi, per cui durante lo sviluppo i geni venivano rimescolati. Nel 1979 nei laboratori di Philip Leder e Tonegawa veniva quindi descritto il principale meccanismo generatore della diversità anticorpale nelle catene leggere, cioè la ricombinazione di un segmento genico detto variabile (V) e di uno di giunzione (]). Il valore della diversità delle regioni variabili delle catene leggere risultava dal prodotto del numero dei segmenti VL e ]L. Nel caso della catena pesante la diversità potenziale risultò assai più grande in quanto, come avrebbe mostrato Tonegawa nel 1982, vi era un ulteriore segmento genico DH, che partecipava insieme a VH e ]H alla formazione delle parti variabili. La variabilità risultava ulteriormente incrementata da variazioni dovute ai meccanismi di giunzioni e da mutazioni somatiche. Il riarrangiamento dei geni per le catene pesanti e per le catene leggere, la combinazione dei due tipi di catene e gli altri meccanismi di diversificazione consentono la sintesi di un repertorio di anticorpi diversi non inferiore a 4,7 x ro 8 • La riorganizzazione e l'espressione dei geni per le immunoglobuline è stata messa in relazione con il differenziamento delle cellule che producono gli anticorpi, i linfociti B, e i due meccanismi della ricombinazione e della mutazione sono stati inquadrati, nel contesto della spiegazione selettiva, come funzionali a due diverse fasi della risposta anticorpale. La ricombinazione somatica contribuirebbe alla diversità degli anticorpi di superficie sulle cellule B, prima dell'incontro con l'antigene. Le mutazioni somatiche riguarderebbero invece la maturazione delle cellule B che vanno a costituire la memoria del sistema. In pratica, si spiegherebbe in questo modo il fatto che la risposta primaria è caratterizzata da una bassa avidità, mentre quella secondaria vede la partecipazione di recettori che, per mutazione e selezione, hanno maturato un'affinità più elevata per l'antigene. 3) La scoperta della super/amiglia delle immunoglobuline e del significato
funzionale ed evolutivo del meccanismo di riconoscimento immunoglobulinico
Lo studio della struttura dell'anticorpo e delle basi genetiche della diversità ha contribuito allo sviluppo concettuale della genetica molecolare, confermando a metà
www.scribd.com/Baruhk
Il sistema immunitario
degli anni settanta che i geni degli eucarioti possono essere frammentati e andare incontro a riorganizzazioni durante i processi differenziativi. Ma oltre a mostrare quale enorme potenziale di rielaborazione dell'informazione genetica sia contenuto nel genoma dei vertebrati, l'immunologia molecolare ha contribuito alla comprensione dei meccanismi di riconoscimento e interazione fra le cellule in rapporto al controllo dei processi differenziativi. I dati strutturali e funzionali descritti da Edelman in relazione all'anticorpo si sarebbero infatti rivelati alla base di un sistema recettoriale di riconoscimento, coinvolto in diversi processi di regolazione della fisiologia cellulare e incentrato sull'organizzazione a domini delle immunoglobuline. Nel 1972 veniva descritta nel laboratorio dello stesso Edelman la prima struttura non immunoglobulinica che mostrava un'omologia con l'anticorpo: la fi'2 -microglobulina. Questa molecola sarebbe risultata parte della struttura degli antigeni di istocompatibilità di classe I. Nel corso degli anni settanta e ottanta furono scoperte numerose molecole dotate di funzione immunitaria, esprimenti i tipici domini immunoglobulinici. La maggior parte delle molecole importanti dal punto di vista delle interazioni comunicative all'interno del sistema immunitario, come il recettore dei linfociti T, le molecole del complesso principale di istocompatibilità e i marcatori di superficie CD4 e co8 dei linfociti T, sarebbero risultati appartenenti a quella che è stata definita la « superfamiglia delle immunoglobuline». Tuttavia una di queste molecole, vale a dire un antigene di differenziamento dei linfociti T denominato Thy-1 e sequenziato agli inizi degli anni ottanta, risultava presente anche sulle cellule nervose. Nel frattempo, precisamente nel 1975, Edelman aveva scoperto che le interazioni fra le cellule nervose embrionali del pollo erano accompagnate da cambiamenti dinamici a livello di una proteina inserita nella membrana cellulare, che portavano alla comparsa di una molecola che favoriva l'adesione fra le cellule. La scoperta fu confermata da altri laboratori, e inaugurò un fertile programma di ricerca nel campo della biologia dello sviluppo, incentrato sulla funzione morforegolatrice delle molecole di adesione fra le cellule (CAMs, Cell Adhesion Molecules) e delle molecole di adesione ai substrati (sAMs, Substrate Adhesion Molecules). Questa scoperta indusse Edelman a ipotizzare che le interazioni dinamiche fra le cellule durante il differenziamento e la morfogenesi fossero regolate da modificazioni a livello della superficie cellulare, come si era già potuto constatare attraverso lo studio degli effetti prodotti dal riconoscimento dell'antigene a livello della distribuzione dei recettori anticorpali sulla superficie delle cellule B: cioè che eventi di modulazione della superficie delle cellule fossero implicati nel coordinare i processi di divisione, movimento e interazione cellulari durante le fasi di sviluppo degli organismi multicellulari. Una sorta di quadratura del cerchio fu la scoperta che anche le molecole di adesione fra le cellule descritte da Edelman risultavano appartenenti alla superfamiglia delle immunoglobuline. Ciò rafforzava la possibilità che i domini immunoglobulinici potessero essere coinvolti nei processi di riconoscimento a livello della superficie cellulare con la funzione di regolare il comportamento delle cellule in diversi tessuti.
www.scribd.com/Baruhk
Il sistema immunitario
Nel 1987 Edelman avrebbe ricavato una serie di implicazioni evoluzionistiche dai dati sin qui descritti, avanzando l'ipotesi che il sistema immunitario sarebbe derivato da un sistema più antico che aveva la funzione di promuovere, nei metazoi, l'adesione fra le cellule. In sostanza la capacità del sistema immunitario di discriminare fra sel/ e not sel/ deriverebbe dall'originaria necessità e capacità delle cellule degli organismi pluricellulari di riconoscersi fra loro, e di dare luogo a interazioni cooperative e regolative in grado di controllare l'espressione dei geni durante lo sviluppo e l'organizzazione tridimensionale dell'informazione codificata linearmente nel DNA. I geni che codificano per le molecole di adesione fra le cellule e altre molecole che partecipano alla regolazione delle interazioni cellulari durante lo sviluppo avrebbero quindi seguito una loro propria linea evolutiva, come i geni per la superfamiglia delle immunoglobuline. n sistema immunitario, con i suoi organi fissi (linfonodi, milza, timo) e i suoi tessuti liquidi (linfociti, monociti che scorrono nei vasi sanguiferi e linfatici), sarebbe quindi esso stesso un prodotto dello sviluppo istologico e morfologico. IV · LE
CELLULE
DELL'IMMUNITÀ
DIFFERENZIAZIONE DELLE
E
E
LE
BASI
MOLECOLARI
DELL'INTEGRAZIONE
RISPOSTE
DELLA
FUNZIONALE
IMMUNITARIE
La natura selettiva delle risposte immunitarie adattative fu ipotizzata prima che fossero note le basi anatomiche e cellulari del sistema immunitario. Infatti le principali scoperte riguardanti gli organi e le cellule implicate nella funzione immunitaria, così come i meccanismi che controllano l'attivazione e modulano il decorso delle risposte, sono avvenute durante gli anni sessanta e settanta. Tali scoperte hanno mostrato che le risposte immunitarie dipendono da processi di cooperazione fra cellule con diversi percorsi differenziativi e che articolati meccanismi genetici ed epigenetici presiedono alla maturazione del sistema immunitario individuale, ovvero delle modalità attraverso cui vengono stabiliti i confini dell'individualità biologica. La descrizione dei procedimenti attraverso cui l'organismo impara a discriminare fra self e not sel/ ha suggerito anche una base biologica per diversi fenomeni patologici dovuti a una reattività immunitaria anomala. r) Le basi cellulari dell'immunità adattativa
Come ricordato sopra, Metchnikoff aveva incentrato per primo la spiegazione dell'immunità su basi cellulari. Tuttavia egli aveva attribuito tutti gli aspetti della funzione immunitaria, inclusa la produzione di anticorpi, alle cellule dell'immunità innata, in particolare a quelle che sarebbero state identificate come macrofagi e leucociti polimorfonucleati. L'osservazione che gli antigeni venivano catturati dalle cellule macrofagiche, che nel 1924 il patologo Ludwig Aschoff aveva inquadrato come parte del sistema reticolo-endoteliale, aveva ulteriormente rafforzato tra i patologi l'idea che appunto i macrofagi fossero anche le cellule che sintetizzano l'anticorpo.
www.scribd.com/Baruhk
n sistema
immunitario
L'ipotesi che i linfociti svolgessero un ruolo nelle risposte immunitarie era stata comunque presa in considerazione già nei primi decenni di questo secolo, a partire da studi sperimentali e istologici che andavano dalla constatazione che i raggi X, che danneggiano i linfociti, riducono anche la produzione di anticorpi, alle osservazioni dei cambiamenti nella composizione cellulare della milza e dei linfonodi durante le infezioni. Nel 1942 Landsteiner e Merill W. Chase dimostravano che l'ipersensibilità ritardata, una tipica forma di reazione allergica, era trasferibile passivamente mediante i leucociti degli essudati peritoneali, ma non attraverso il siero. Quindi, nel 1948, Astrid Fagraeus scopriva che le plasmacellule, successivamente riconosciute come linfociti trasformati, sono le cellule che producono gli anticorpi. Nei due decenni successivi, l'applicazione della tecnica di immunofluorescenza e lo studio della concentrazione di acidi nucleici nei linfonodi confermava che le plasmacellule sono la fonte degli anticorpi. L'analisi dettagliata del differenziamento dei linfociti in plasmacellule fu resa possibile dall'invenzione, nel 1963, della tecnica delle placche di emolisi, da parte di Jerne e Albert A. Nordin, che consentiva di evidenziare e isolare appunto le cellule secernenti anticorpi. Nel 1956 Bruce Glick e alcuni collaboratori avevano intanto dimostrato che, negli uccelli, le cellule che producono gli anticorpi maturano in un organo linfoide noto come la «borsa di Fabrizio». Questa scoperta passò quasi inosservata, ma verso la fine degli anni cinquanta e agli inizi degli anni sessanta cominciò a essere messa in relazione con osservazioni immunopatologiche che mostravano una dualità nelle risposte immunitarie, nel senso che un danno al meccanismo di sintesi anticorpale poteva lasciare inalterata la capacità di rispondere ad antigeni di natura virale o di montare una reazione di ipersensibilità ritardata o il rigetto di un trapianto. Era il preludio a una serie impressionante di scoperte che, nel corso degli anni sessanta, avrebbe stabilito la distinzione fra risposta umorale e risposta mediata da cellule come asse portante dell'indagine sull'architettura anatomo-funzionale del sistema immunitario. Nei primi anni sessanta Jacques F.A.P. Miller scopriva che il timo è un organo centrale per lo sviluppo della funzione immunitaria, e che non controlla soltanto le risposte mediate da cellule, come le reazioni di ipersensibilità ritardata e il rigetto dei trapianti, ma risulta altresì implicato nella formazione degli anticorpi. Mentre Robert Good (n. 1922).e la sua scuola di medicina di Minneapolis raccoglievano conferme a livello di casi clinici di una fondamentale dissociazione fra risposte umorali e cellulari, un gruppo di ricercatori guidati da Henry Claman dimostrava nel 1966 che la sintesi degli anticorpi veniva espletata dai linfociti derivati dal midollo osseo (che saranno chiamati linfociti B),2 mentre quelli che si differenziavano nel 2 Anche se molto spesso si trova scritto nei trattati di immunologia o in articoli divulgativi che la lettera « B >> starebbe per « midollo osseo >> (bone marrow in inglese), originariamente<< B >>stava per
<> ovvero le cellule B furono identificate come equivalenti a quelle che negli uccelli maturavano nella borsa di Fabrizio (bursaequivalent).
270
www.scribd.com/Baruhk
Il sistema immunitario
n
timo (che diverranno noti come linfociti svolgevano una funzione coadiuvante rispetto alle risposte umorali. Nel volgere di pochi anni Miller e Graham Mitchell stabilivano che la sintesi degli anticorpi richiedeva la cooperazione fra le cellule B e le cellule T, e Avrion Mitchison dimostrava, in collaborazione con altri ricercatori, che la cooperazione fra cellule B e T prevede due distinti sistemi di riconoscimento per due distinti determinanti dell'antigene: quelli che Landsteiner aveva identificato nell' aptene e nel vettore. Nel 1970 Martin Raff scopriva che quasi tutti i linfociti esprimevano sulla superficie cellulare o l'antigene theta o l'anticorpo, ma nessuno entrambi. Così l'immunoglobulina di superficie divenne il principale criterio di definizione dei linfociti B. Tuttavia, oltre che su basi funzionali e attraverso la presenza/assenza dell'immunoglobulina, la separazione dei linfociti B dai linfociti T fu resa possibile agli inizi degli anni settanta dall'utilizzazione di un apparato, il cosiddetto FACS (Fluorescence Activated Ce!! Sorter), che consentiva di scegliere le cellule all'interno di una popolazione eterogenea sulla base di marcatori a cui erano stati legati anticorpi fluorescenti. Con questa tecnica, conosciuta anche col nome di citometria di flusso, Stuart Scholsmann dimostrava nel 1976 che le cellule T potevano essere distinte in base alla presenza o assenza di un marcatore che fu chiamato THl: era la conferma che, come da tempo sospettavano diversi immunologi, i linfociti T presentavano una eterogeneità fenotipica e funzionale. Associando gli anticorpi monoclonali alla citometria di flusso fu possibile isolare numerosi marcatori delle cellule T e B, che venivano chiamati con diverse sigle e correlati a diverse fasi ipotetiche del differenziamento funzionale delle cellule immunocompetenti. Nel 1982 fu adottata la sigla CD (Cluster o/ Dz//erentiation) per i determinanti antigenici che descrivono un particolare stadio del differenziamento delle cellule T o B e che vengono riconosciuti da anticorpi monoclonali. La straordinaria efficacia combinata della citometria di flusso e degli anticorpi monoclonali ha determinato un progressivo aumento di questi marcatori, e addirittura per molte delle strutture identificate non si è ancora riusciti a trovare una funzione. Le due principali sottopopolazioni di linfociti T sono oggi note come CD4 e CD8, o, con riferimento alle loro funzioni come linfociti T helper (cn4), che sovrintendono ai processi cooperativi fra le cellule immunitarie, e linfociti T citotossici (cn8), che esercitano un'azione distruttiva diretta. L'esistenza di queste due sottopopolazioni linfocitarie era già stata intuita intorno alla metà degli sessanta sulla base della fenomenologia osservata nel contesto delle colture linfocitarie miste, in cui i linfociti di due individui diversi venivano messi a contatto in vitro per studiare i rapporti di istocompatibilità. In queste colture si poteva osservare sia il fenomeno della cooperazione sia la risposta citotossica; quest'ultima particolarmente evidente quando le colture contenevano i linfociti di un animale immunizzato e le cellule antigeniche utilizzate per immunizzarlo. Da queste reazioni emergeva che sia per aiutare la risposta immunitaria anticorpale sia per 271
www.scribd.com/Baruhk
Il sistema immunitario
mettere in atto una risposta cellulare citotossica i linfociti T dovevano « vedere» sulle altre cellule delle molecole molto particolari, di cui era già nota la funzione nel rigetto dei tessuti trapiantati. 2)
La scoperta delle molecole dell'individualità
Alla fine degli anni sessanta era del tutto evidente che la teoria della selezione clonale riguardava solo un aspetto dell'immunità adattativa, quello basato sugli anticorpi, e non prevedeva le interazioni cellulari e molecolari, di tipo cooperativo, che erano alla base dell'organizzazione differenziata delle risposte immunitarie. Né la teoria della selezione clonale contemplava le restrizioni a queste interazioni, che emergevano da diversi sistemi sperimentali e che dipendevano dalla presenza sulla superficie delle cellule di molecole codificate da un insieme altamente polimorfo di geni, appartenenti al complesso principale di istocompatibilità. Fino agli inizi degli anni sessanta il problema dell'istocompatibilità era stato studiato nell'ambito della genetica dei gruppi sanguigni, dei trapianti e della resistenza alle malattie e all'impianto di tumori negli animali di laboratorio. Nel 1916 gli americani Ernest E. Tyzzer e Clarence C. Little avevano ipotizzato un controllo genetico dell'immunità ai trapianti di tumore. Nel 1937 il patologo inglese Peter A. Gorer identificava nel gene di un gruppo sanguigno del topo (gruppo n) questo tipo di funzione. Lo studio dei geni di istocompatibilità nel topo (H-2), sarebbe stato realizzato dallo stesso Gorer e da George Snell (n. 1903), che lavorando con ceppi di topi congenici, cioè geneticamente omogenei, mostrarono che gli antigeni che vengono riconosciuti nel rigetto dei trapianti sono sotto il controllo genetico. Il primo antigene di istocompatibilità nell'uomo fu descritto nel 1958 dall'ematologo e immunogenetista francese Jean Dausset (n. 1916). Dausset aveva osservato che il siero di alcuni pazienti affetti da anemia emolitica autoimmune e da altre malattie del sangue conteneva anticorpi capaci di agglutinare dei leucociti estranei. Egli cominciò quindi a studiare individui normali sottoposti a trasfusioni multiple e scoprì che questi anticorpi erano indipendenti dal sistema di anticorpi naturali dei gruppi sanguigni ABO. Durante la prima metà degli anni sessanta le ricerche genetiche sull'istocompatibilità si stavano sviluppando senza alcun controllo sui metodi, sulla nomenclatura da adottare e sull'interpretazione dei risultati. A partire dal 1964 una serie di simposi e un intenso lavoro di ricerca sperimentale basato sulla collaborazione di diversi gruppi di ricercatori alimentarono una crescita continua e ben coordinata delle conoscenze sul Complesso principale di istocompatibilità (MHC, Major Histocompatibility Complex), termine introdotto nel vocabolario immunologico nel 1967, cioè nell'occasione del Terzo Workshop Internazionale sull'istocompatibilità organizzato da Ruggero Ceppellini (1917-89) a Torino. Sempre a Torino fu adottata la denominazione HL-A ·per il MHC dell'uomo, dove H stava per Human, L per Leucocyte e A per il primo locus identificato. Nel 1975 fu introdotta la nomenclatura 272
www.scribd.com/Baruhk
Il sistema immunitario HLA (Human Leucocyte Antigens) seguita da una lettera separata da un trattino per indicare i diversi loci. Attraverso una tecnica denominata saggio di microtossicità, basata sull'uccisione selettiva dei linfociti, intorno alla metà degli anni sessanta venivano identificati gli antigeni codificati da tre loci denominati HLA-A, HLA-B e HLA-c, espressi su tutte le cellule tranne gli eritrociti. Questi antigeni mostrarono di avere una struttura molecolare simile e furono denominati antigeni di classe I o prodotti MHC di classe r. Un quarto locus fu identificato nel 1967 da Fritz Bach come responsabile delle reazioni leucocitarie miste e fu denominato HLA-D. Attraverso le tecniche sierologiche sono stati rilevati diversi antigeni associati al locus HLA-D, che sono stati definiti prodotti MHC di classe II e sono risultati presenti sulle cellule che collaborano con i linfociti T nelle risposte immunitarie. Nel 1967 cominciava a prendere forma anche l'organizzazione genetica del sistema HLA, che si rivelava, come aveva intuito Ceppellini, un « supergene », cioè un gruppo di loci strettamente collegati che si erano evoluti insieme e funzionavano in modo concertato. Ceppellini introdusse anche il termine « aplotipo » per indicare la serie di geni raggruppati insieme su un singolo cromosoma (il sesto nell'uomo) e che insieme costituivano un'unità funzionale. Lo studio delle frequenze dei geni HLA nei diversi gruppi etnici è diventato un obiettivo importante per gli immunogenetisti a partire dal Workshop del 1972 e ha messo in evidenza che l'associazione di alcuni antigeni è più frequente di quanto ci si aspetterebbe per caso ovvero che i geni si trovano in linkage disequilibrium. Le ragioni del linkage disequilibrium sono state attribuite sia a forze selettive, come le malattie infettive che agiscono attraverso la funzione delle molecole del MHC nel controllare le risposte immunitarie, sia all' espansione, alle migrazioni e al mescolamento di popolazioni eterogenee. I loci che codificano per le molecole MHC di classe r e II sono i più polimorfi che si conoscano. Le stime più recenti assumono l'esistenza di oltre w o alleli per ogni locus, e la diversità teorica che può esprimere il MHC in una specie sarebbe dell'ordine di 10 12 . La caratterizzazione biochimica dei prodotti dei geni HLA fu ottenuta a metà degli anni ottanta grazie alla collaborazione di diversi laboratori, e consentì di spiegare anche il meccanismo di riconoscimento dei peptidi estranei e i processi di maturazione dei recettori T. Lo straordinario polimorfismo del sistema dell'istocompatibilità cominciò a trovare un senso attraverso la scoperta che questi prodotti sono essenziali per consentire ai linfociti T di riconoscere gli antigeni estranei, ovvero, che le funzioni di riconoscimento dei recettori dei linfociti T sono « ristrette dal MHC ». Nel 1963, nel corso di studi immunochimici sulle caratteristiche del vettore proteico nel consentire la formazione di anticorpi contro polipeptidi sintetici omogenei, il patologo Baruj Benacerraf (n. 1920) scopriva che la risposta immunitaria nei confronti di un antigene artificiale che stava utilizzando era controllata da un singolo gene autosomico dominante. Benacerraf ipotizzò che questi geni che control-
273
www.scribd.com/Baruhk
II sistema immunitario
lano le risposte immunitarie fossero implicati nel riconoscimento del vettore e, fra il 1969 e il 1971, fu stabilito un collegamento fra questi geni della risposta immunitaria (IR, Immune Response) e il complesso principale di istocompatibilità (MHC) nel topo e nell'uomo. Nel 1973 e 1974 si scopriva che le molecole di istocompatibilità di classe n erano essenziali per la presentazione dell'antigene alle cellule T da parte dei macrofagi e per l'interazione cooperativa fra le cellule T e le cellule B nell'induzione della risposta immunitaria. Sempre nel 1974 Rolf Zinkernagel e Paul Doherty verificavano che i linfociti T citotossici sono in grado di uccidere una cellula infettata da un virus solo se questa condivide l'antigene di istocompatibilità di classe r. L'anno successivo sarebbe giunta la conferma che le molecole MHC sono codificate dai geni IR. Durante gli anni settanta si manifestò grande eccitazione per le molecole e i geni di istocompatibilità. L'immunogenetista Jan Klein riportava nella prima edizione del 1982 del suo trattato Immunology. The science o/ self- not self discrimination ben 6o effetti riferiti al controllo del MHC, che andavano dalla forma della mandibola, al peso corporeo, al numero di cellule della milza, al tasso di sintesi del DNA. Ovviamente gran parte di queste associazioni sarebbero risultate inesistenti. Tuttavia, nel 1974 alcuni ricercatori del Memoria! Slona-Kettering Cancer Institut di New York scoprivano che i geni del MHC erano coinvolti nel controllo del comportamento riproduttivo dei topi, in quanto da essi dipendeva il caratteristico odore che consente loro di discriminare le differenze genetiche individuali fra i potenziali partner sessuali. L'implicazione medica più rilevante è stata comunque la scoperta dei rapporti fra lo HLA e la « predisposizione », o, meglio, il rischio relativo di contrarre determinate malattie a eziologia virale o a sviluppare patologie degenerative di tipo tumorale o autoimmune. Le prime associazioni, studiate nel topo alla fine degli anni sessanta, risultarono infondate, ma nel 1973 fu stabilito che oltre il 90 per cento dei pazienti affetti da spondilite anchilosante erano portatori di un particolare gene di istocompatibilità (HLA B-27). Ricerche successive avrebbero mostrato che numerose altre patologie, di varia natura, ma prevalentemente a sospetta eziologia autoimmune risultavano associate a particolari profili genetici HLA. Gli aspetti metodologici di questi studi sono stati via via approfonditi e, alla luce del ruolo degli antigeni di istocompatibilità nel riconoscimento del self e nella regolazione della risposta immunitaria, non è implausibile che buona parte delle associazioni rilevate possono essere spiegate in termini di anomalie strutturali e/o funzionali dei geni HLA. Il meccanismo patogenetico è probabilmente collegato al processo di selezione intratimica attraverso cui i linfociti T imparano a riconoscere il self e nello stesso tempo a diventare tolleranti. 3) Il sistema di riconoscimento basato sui lin/ociti T e l'educazione intratimica
Se da un punto di vista storico il recettore dei linfociti B, cioè l'anticorpo, è stato l'oggetto immunologico più studiato, a partire dalla metà degli anni settanta 274
www.scribd.com/Baruhk
Il sistema immunitario
l'attenzione dell'immunologia molecolare si è rivolta verso un altro recettore, caratteristico delle cellule derivate dal timo, la cui esistenza era già chiara alla fine degli anni sessanta e che ormai risultava il vero fattore chiave nel controllo della risposta immunitaria specifica. Inizialmente non si riusciva a stabilire quale potesse essere la natura di questo recettore, se cioè fosse un'immunoglobulina o avesse una struttura propria, e vi era grande incertezza sul modo in cui esso interagiva con l' antigene. La possibilità di clonare le cellule T, a partire dal 1980, ha consentito di identificare i recettori e analizzarne la funzione, in particolare il modo in cui riconoscono l'antigene. li recettore dei linfociti T (TCR, T Cell Receptor) fu individuato nel 1983, mediante anticorpi monoclonali che si legavano a una proteina sulla superficie delle cellule T e impedivano il riconoscimento dell'antigene. L'anno successivo veniva isolato il DNA che codificava per i componenti di questo recettore. Fu quindi possibile studiare le caratteristiche strutturali del TCR, che risultò formato dall'associazione di due catene alfa e beta, ciascuna costituita da due domini ripetitivi indipendenti, come nelle immunoglobuline. Il dominio più lontano dalla membrana cellulare era variabile, mentre l'altro era costante. L'analisi del DNA embrionale mostrò una suddivisione in segmenti V, D, ], la cui associazione segue le stesse regole di ricombinazione delle parti variabili degli anticorpi, eccetto per l'assenza di mutazioni che sarebbero fonte di possibili rotture della tolleranza. Nel frattempo veniva rilevata l'esistenza di un'altro tipo di recettore, formato dall'associazione di due catene dette gamma e delta, con le stesse caratteristiche molecolari, ma che veniva espresso nelle fasi più precoci dell' ontogenesi. Il dispiegamento di potenti e ingegnose tecnologie biologiche e l'intelligenza creativa di ricercatori come Pamela Bjorkman, Harald von Boehmer, John Kappler, Charles Janeway jr., Philippa Marrack, William Paul, Jack L. Strominger e altri hanno consentito di far luce sui meccanismi di riconoscimento in cui è coinvolto il recettore dei linfociti T e sulle modalità attraverso cui avviene la maturazione delle cellule T nel timo. Alla fine degli anni settanta era già evidente che il recettore dei linfociti T non veniva secreto, e che nel timo avvenivano dei processi di selezione, di tipo sia positivo che negativo, che portavano alla maturazione di linfociti T in grado di riconoscere l'antigene esterno solo se questo era stato precedentemente rielaborato ed esposto sulla superficie delle cellule in associazione alle molecole del complesso principale di istocompatibilità (MHc). Gli studi immunogenetici avevano già dimostrato che le cellule T riconoscevano illigando antigene-MHC solo quando i prodotti del MHC erano dello stesso genotipo della cellula T. Il problema da risolvere era quindi se i linfociti T avevano un solo recettore per l'antigene esterno e le molecole del MHC, ovvero se un unico recettore riconosceva entrambi. L'analisi biochimica delle molecole MHC mostrò che queste hanno una struttura che consente l'incorporamento del peptide antigenico, con275
www.scribd.com/Baruhk
n sistema
immunitario
fermando la teoria cosiddetta del «sé modificato» (altered sel/ hypothesis), per cui
il sistema immunitario riconosce attraverso i linfociti T l'antigene esterno come elemento che produce una modificazione delle molecole del sel/. Studiando la funzione di particolari molecole dette superantigeni e attraverso la costruzione di animali transgenici si è visto che i repertori delle cellule T sono selezionati sulla base del fenotipo individuale MHC espresso nel timo. In altri termini, la capacità di riconoscere l'elemento del MHC autologo risultava « appresa » dalle cellule T durante la loro maturazione nell'ambiente timico, mediante il contatto con cellule che esprimevano sulla loro superficie i prodotti del MHC. Il meccanismo di questi processi selettivi risultava essere una variante di quello ipotizzato nel 1971 da Jerne per la formazione del repertorio diretto contro gli antigeni esterni, che egli pensava trovasse origine dalla selezione intratimica dei recettori per gli antigeni allogenici del MHC. La selezione positiva delle cellule T che trasportano recettori alfa e beta avviene nella corteccia epiteliale del timo, dove vengono salvate dalla morte le cellule in grado di riconoscere sulle cellule epiteliali le associazioni fra MHC e peptidi endogeni. Questo processo porta alla formazione di repertori di cellule portatrici dei marcatori co4 e co8, che vengono selezionate negativamente nel midollo timico per indurre la tolleranza verso i componenti del sel/. 3 Il parametro funzionale da cui sembrano dipendere i processi di selezione intratimica, sarebbe il gradiente di affinità dei recettori delle cellule T per gli antigeni del MHC, che nel caso della selezione positiva deve essere sufficiente a garantire il riconoscimento delle molecole MHC modificate da peptidi antigenici, mentre nel caso della selezione negativa non deve eccedere valori che mettano a rischio la tolleranza. In questa prospettiva, gli antigeni che saranno riconosciuti dai recettori dei linfaciti T rappresentano una modificazione degli elementi di restrizione, dovuta all'interazione fra questi e l'antigene processato. Le cosiddette cellule accessorie o « cellule che presentano l'antigene» (antigen presenting cells), soprattutto i macrofagi e i linfaciti B, sono deputate a elaborare il determinante antigenico riconosciuto dai linfociti T helper. Nel caso dei linfociti T citotossici la restrizione è controllata dalle molecole di classe I, e la risposta comporta il riconoscimento e l'eliminazione di cellule infettate da virus, cellule tumorali e tessuti trapiantati: vale a dire cellule proprie dell'organismo in cui ancora una volta le molecole dell'identità risultano alterate. V
• IL PROBLEMA DELLA REGOLAZIONE DELLE RISPOSTE IMMUNITARIE
Sino agli inizi degli anni settanta l'antigene era considerato l'unico segnale in grado di innescare le risposte immunitarie. Tuttavia il fatto che il segnale antigenico potesse indurre sia uno stato di attivazione sia una tolleranza, poi la scoperta che 3 Le molecole CD4 e co8 funzionano esse stesse da recettori, mentre altri marcatori contribuiscono
a trasmettere i segnali necessari all'attivazione e all'induzione della tolleranza nei linfociti adulti.
www.scribd.com/Baruhk
II sistema immunitario
l'effetto carrier implicava un doppio riconoscimento per l'innesco della risposta anticorpale e quindi le evidenze sperimentali che gli anticorpi potevano riconoscersi tra loro (idiotipia) e riconoscere altre strutture molecolari del se!/, impose all'attenzione dei ricercatori il problema di capire in che modo il sistema immunitario controllava internamente le sue risposte. Inoltre, mentre si delineava l'organizzazione anatomocellulare e genetico-molecolare delle risposte immunitarie specifiche, si cominciava parallelamente a osservare che la proliferazione delle cellule e poi addirittura il loro incanalamento lungo diversi percorsi differenziativi dipendeva da meccanismi di comunicazione intercellulare mediati da fattori solubili in seguito divenuti noti come citochine. La ricerca sulla natura biochimica e sulla funzione delle citochine ha portato al centro dell'attenzione di numerosi gruppi di ricercatori proprio le basi molecolari dei processi di comunicazione intercellulari, allo scopo di mettere ordine e dare un senso fisiopatologico a dati sperimentali e clinici spesso contraddittori o apparentemente inspiegabili. r) La teoria del riconoscimento associativo e la teoria del network zdiotipico
I primi tentativi di spiegare come vengono regolate le risposte immunitarie furono concepiti allo scopo di completare la teoria della selezione clonale. Il problema di capire quando il riconoscimento dell'antigene induceva una risposta anticorpale o una tolleranza era complicato dalla scoperta che lo stabilirsi della tolleranza dipendeva dalla concentrazione dell'antigene (mentre il mantenimento non ne dipendeva) e che l'assenza di risposta a un tollerogeno poteva essere disturbata mediante immunizzazione con un antigene dotato di reattività incrociata. Questi dati erano difficilmente spiegabili assumendo, come faceva la teoria della selezione clonale, che l'antigene soltanto funzionasse da segnale e che lo stato di maturazione della cellula determinasse il significato fisiologico dell'interazione, producendo per esempio l'eliminazione delle cellule autoreattive quando il riconoscimento avveniva nelle fasi precoci dell'ontogenesi. Nelr968 e nel1970 Peter Bretscher e Melvin Cohn avanzarono un'ipotesi, che Cohn avrebbe chiamato del «riconoscimento associativo», per cui l'incontro fra le cellule vergini e l'antigene poteva dar luogo a due tipi di segnali: se l'antigene veniva riconosciuto da solo si aveva l'inattivazione della cellula e quindi l'insorgere della tolleranza, mentre quando l'antigene veniva riconosciuto in associazione con il vettore allora la cellula riceveva due segnali, che ne inducevano la trasformazione in plasmacellula. Intorno a questa teoria Cohn avrebbe sviluppato una sua visione del funzionamento selettivo del sistema immunitario, che, partendo dall'assunzione fondamentale che l'efficacia delle risposte presuppone la capacità del sistema di distinguere fra self e not se!/, mirava a perfezionare la teoria della selezione clonale e a far emergere i significati funzionali ed evolutivi dei meccanismi che operano nel controllo delle risposte immunitarie. La ricerca sperimentale avrebbe mostrato che esistono diversi meccanismi sperimentalmente dimostrati che possono indurre la non
www.scribd.com/Baruhk
n sistema
immunitario
responsività delle cellule B e delle cellule T a un antigene, fra cui la possibilità che le cellule entrino in uno stato di « anergia ». Tuttavia il principio generale stabilito da Bretscher e Cohn, per cui è necessario un segnale costimolatore per attivare una cellula immunocompetente, viene oggi riconosciuto come uno dei fondamenti della comunicazione immunitaria. Durante gli anni ottanta Cohn è stato presente sulla scena del dibattito teorico anche, e forse soprattutto, come critico particolarmente acceso di una teoria della regolazione del sistema immunitario concepita allo scopo di completare la teoria della selezione clonale. Si trattava della teoria del network idiotipico, formalmente presentata da Jerne nel 1974, per spiegare in che modo il sistema immunitario poteva controllare la propria attività come un tutto, ovvero allo scopo di capire quali fossero i principi funzionali di carattere sistemico che governavano le risposte immunitarie. L'entroterra empirico-sperimentale della teoria di Jerne era il fenomeno dell'idiotipia. Infatti l'ipotesi del network idiotipico partiva dall'evidenza che l'anticorpo, oltre che un antigene esterno, può riconoscere e, a sua volta, essere riconosciuto da altri anticorpi, inducendo la sintesi di anticorpi di seconda generazione. L'idiotipo dell'anticorpo veniva definito da Jerne come l'insieme degli idiotipi, cioè dei determinanti antigenici presenti nel sito di combinazione, che possono essere riconosciuti da altri anticorpi. Attraverso reciproci riconoscimenti si formerebbe quindi una rete di interazioni che avrebbe la funzione di regolare, soprattutto attraverso un meccanismo soppressivo, l'attività del sistema immunitario. La rete idiotipica sarebbe dotata di un comportamento proprio (« eigenbehaviour »), in grado di rispondere alle perturbazioni antigeniche, esterne e interne, e di ricercare automaticamente un nuovo stato di equilibrio. La risposta immunitaria contro l'antigene esterno si realizzerebbe come risultato della rottura dell'equilibrio fra i riconoscimenti stimolatori e inibitori mediante i quali viene mantenuto in attività il sistema. L'approccio di Jerne rifletteva una concezione innatista dei processi funzionali attraverso cui l'organismo individuale interagisce adattativamente con il mondo esterno. Jerne fondava innanzitutto la sua teoria sull'introduzione di una nuova terminologia, che mirava a scaricare la zavorra linguistica rappresentata nell'immunologia dai termini «anticorpo» e «antigene». Questi, secondo l'immunologo danese vincolavano concettualmente la funzionalità del sistema a una sua interazione con il mondo esterno, mentre quest'ultimo doveva in qualche modo essere una ricostruzione logica a partire dai repertori di riconoscimento idiotipo-antiidiotipo, cioè dalle interazioni fra i siti di combinazione degli anticorpi, che possono funzionare sia da paratopi che da epitopi.4 Non si avrebbe più quindi un interno e un esterno, o un 4 I termini « epitopo » e « paratopo » si riferivano, rispettivamente, al determinante dell' antigene riconosciuto dall'anticorpo e al sito di riconoscimento dell'anticorpo, e furono utilizzati,
insieme alle parole « idiotopo >> e « idiotipo >>, per la prima volta dallo stesso Jerne in un articolo del 1960 intitolato Immunologica! speculations.
www.scribd.com/Baruhk
Il sistema immunitario
«proprio» e un «non proprio», ma una rete di interazioni fra gruppi molecolari autologhi, che rappresenterebbe l'attività del sistema, la sua «vita interiore». Fra le proprietà della rete idiotipiça vi sarebbe quella di contenere un'« immagine interna» dell'epitopo esterno, costituita dagli idiotopi riconosciuti dal paratopo specifico per il determinante antigenico esterno. Intorno all'ipotesi dell'« immagine interna » si sono sviluppate diverse speculazioni teoriche e aspettative in vista di un'utilizzazione degli anticorpi anti-idiotipici per modulare il funzionamento del sistema immunitario. In realtà le ricerche biochimiche hanno mostrato che solo una piccola frazione di anticorpi anti-idiotipici trasportano un'immagine interna e che l'immagine non imita necessariamente la struttura del determinante antigenico estraneo originale, ma magari solo un residuo di contatto marginale. Comunque sono stati intrapresi numerosi tentativi di modulare la funzione immunitaria per controllare le malattie autoimmuni o di creare vaccini cosiddetti « anti-idiotipici » per la prevenzione di varie malattie infettive. La teoria della rete idiotipica venne accolta con interesse da tutti gli immunologi, data anche l'autorevolezza del proponente. Verso la fine degli anni settanta e nei primi anni ottanta si manifestò tuttavia un'esplosione quasi improvvisa di entusiasmo e conseguentemente di pubblicazioni teoriche e sperimentali sull'ipotesi della rete idiotipica. In particolare l'assunzione per cui la rete idiotipica funzionale veniva vista come indipendente dall'ambiente e governata da una logica « autoriflessiva » avrebbe determinato una serie di sviluppi teorici ispirati dalle emergenti epistemologie costruttivistiche o strutturalistiche in cui venivano enfatizzati gli aspetti autoreferenziale e formali del modello di Jerne, mentre veniva rifiutata in blocco la spiegazione selezionistica delle risposte immunitarie. L'accentuazione degli aspetti autoreferenziali dell'ipotesi di Jerne ha ottenuto il solo risultato di accrescere le incertezze riguardo alla portata esplicativa della teoria della rete idiotipica. L'aspetto più significativo di queste estremizzazioni era la negazione della distinzione fra «proprio» e «non proprio» a livello della funzionalità del sistema. Del resto un simile esito era implicito nei postulati della teoria. Uno dei concetti che presto sarebbe stato introdotto dallo stesso Jerne era quello del recettore immunoglobulinico inteso come «estremità collosa» (sticky end), in netto contrasto con la nozione di specificità e con il modello selettivo che spiegava l'origine delle manifestazioni adattative dell'immunità. Il concetto di «estremità collosa», e il corollario che ne discendeva, per cui dal punto di vista del sito di combinazione dell'anticorpo cadeva ogni distinzione possibile fra « riconoscere ed essere riconosciuto » entrava in conflitto con il concetto di specificità strutturale, che individuava nella stereocomplementarietà fra i determinanti dell'anticorpo e dell'antigene la condizione per un'interpretazione funzionale del segnale costituito dal riconoscimento. Peraltro, l'evidenza sperimentale che le mutazioni a livello delle sequenze di amminoacidi costituenti il sito di combinazione dell'anticorpo possano incrementare l'affinità degli anticorpi per l'antigene, ren279
www.scribd.com/Baruhk
Il sistema immunitario
deva alquanto fantasiosa l'immagine del paratopo come in grado di incollarsi a qualsiasi epitopo. Verso la fine degli anni ottanta il carattere estremamente speculativo che aveva assunto la versione « autopoietica » dell'ipotesi della rete idiotipica, e l'evidente l'impossibilità di pervenire a una sua dimostrazione sperimentale hanno visto il progressivo ridimensionamento delle aspettative iniziali, anche nei più accesi sostenitori. Si sono manifestate sempre più apertamente posizioni critiche, e per alcuni ricercatori le interazioni idiotipo-antiidiotipo sarebbero solo un sottoprodotto della funzione immunitaria, privo di rilevanza pratica. Di fronte a una progressiva perdita di contatto con gli sviluppi della ricerca immunologica a livello biochimico e genetico-molecolare gli immunologi che avevano lavorato a sviluppare la teoria della rete idiotipica hanno elaborato nuove versioni, che cercano di conciliare l'ipotesi della «rete immunitaria», con la teoria della selezione clonale. I cosiddetti « network di seconda generazione» accolgono l'idea che i principi della selezione clonale operano nel contesto delle risposte immunitarie convenzionali all'antigene esterno, e quindi nella protezione dagli agenti infettivi. Il network immunitario corrisponderebbe invece alle connessioni che controllano le attività autonome dei linfociti, ovvero definirebbe le proprietà intrinseche del sistema immunitario, che sono estese al di là del repertorio immunoglobulico, per includere tutti i motivi molecolari propri dell'ecosistema individuale. Allo scopo di contestualizzare funzionalmente la nuova idea di network immunitario, i principali teorici di questo orientamento, vale a dire Antonio Coutinho, Francisco Varela e John Stuart, distinguono un sistema immunitario centrale, organizzato nella forma di un network di connettività, e un sistema immunitario periferico, che risponderebbe clonalmente e selettivamente. Inoltre essi assumono che l'origine evolutiva delle molecole immunoglobuliniche non risiederebbe nella loro funzione antinfettiva, ma nello stabilirsi di un processo di autorganizzazione che aveva originariamente lo scopo di regolare l'ambiente molecolare interno. 2) La scoperta delle citochine e l'emergere di nuovi orizzonti problematici per la ricerca immunologica
Intorno alla metà degli anni sessanta si osservava che i surnatanti di colture leucocitarie miste contenevano dei fattori, prodotti dai linfociti, dotati di attività biologiche. Lo studio di diversi sistemi sperimentali mostrò che l'azione di tali fattori poteva essere sia di tipo inibitorio sia di tipo stimolatorio, e interessava sia le cellule dell'immunità specifica sia quelle dell'immunità aspecifica. Nel 1969 i fattori responsabili di tali fenomeni furono chiamati lin/ochine. L'anno successico veniva dimostrata l'attività biologica di un fattore derivante da cellule non linfocitarie e in grado di stimolare i linfociti, che fu chiamato LAF (Lymphocite Activating Factor). La scoperta che i fattori umorali in grado di amplificare o modificare le risposte immunitarie potevano essere prodotti anche da cellule non linfoidi indusse l'immunologo 280
www.scribd.com/Baruhk
Il sistema immunitario
inglese Stanley Cohen a proporre nel 1974 di chiamare questi mediatori, nell'insieme, «citochine». Intanto si moltiplicava sia il numero di presunti fattori dotati di attività biologica osservati in diversi sistemi sperimentali, sia il numero di acronimi utilizzati per indicare tali attività, e cominciava a essere evidente che alcuni fattori conosciuti con nomi diversi erano la stessa citochina, che agiva diversamente in differenti contesti. Nel 1976 veniva scoperta la possibilità di far proliferare le cellule T in coltura se il terreno era stato precedentemente condizionato da cellule T attivate con un mitogeno. Kendall Smith fra il 1979 e il 1981 fece derivare questa possibilità da un fattore che fu inizialmente chiamato fattore di crescita delle cellule T (TCGF, T Cell Growth Factor) e che quindi sarebbe diventato la citochina più famosa, sia perché fu la prima a essere descritta biochimicamente, e di cui furono studiate con sistemi di ingegneria genetica le caratteristiche del recettore, sia perché intorno a essa si crearono nella seconda metà degli anni ottanta diverse aspettative terapeutiche. Questa citochina è oggi conosciuta come interleuchina-2 (IL-2), mentre il LAF è diventato l'IL- r. 5 Lo sviluppo dei sistemi di clonazione dei recettori e l'utilizzazione di topi transgenici e knockout 6 mostrava intanto che le citochine hanno uno spettro di regolazione molto ampio e con diverse sovrapposizioni, per cui il termine citochine avrebbe finito con il riferirsi genericamente a un insieme, comunque differenziabile funzionalmente e biochimicamente, di proteine a basso peso molecolare ed estremamente attive anche a concentrazioni molto basse, che regolano la fisiologia cellulare. Le citochine .sono infatti secrete da varie cellule coinvolte nella risposta immunitaria e agiscono su cellule bersaglio che trasportano recettori di membrana specifici per una data citochina. Questi fattori regolano l'intensità e la durata della risposta immunitaria, stimolando o inibendo la proliferazione di varie cellule o la loro attività secretoria. n legame di una citochina al suo recettore trasmette alla cellula un segnale che porta a cambiamenti nell'attivazione e nell'espressione dei geni. L'azione delle citochine può essere pleiotropa, nel senso che può innescare attività biologiche differenti in diverse cellule bersaglio, owero può essere ridondante, nel senso che diverse citochine possono mediare funzioni simili. Inoltre l'effetto combinato di diverse citochine può essere maggiore degli effetti additivi delle citochine prese individualmente (effetto sinergico), owero una citochina può inibire gli effetti di un'altra citochina (effetto antagonista). Queste proprietà consentirebbero alle citochine di regolare l'attività cellulare in modo coordinato e interattivo, e si parla da diversi anni di un 5 Il termine « interleuchina » fu introdotto nel contesto del Secondo Workshop Internazionale sulle Linfochine, tenutosi presso lnterlaken in Svizzera nel 1978. L'intenzione era di utilizzare un vocabolo più «neutrale>> per definire i fattori dotati di atti-
vità biologica e derivati dalle cellule leucocitarie. 6 Si chiamano «topi knockout >> quelli in cui vengono resi silenti uno o più geni per studiarne la funzione attraverso le alterazioni osservate nel fenotipo a causa della loro mancata espressione.
www.scribd.com/Baruhk
Il sistema immunitario
« network delle citochine». Cioè si assume l'ipotesi che le citochine interagiscano
in modo tale da indursi reciprocamente, transmodulando l'espressione dei recettori di superficie per le citochine e mediante interazioni sinergiche, additive e antagoniste sulla funzione cellulare. Negli ultimi anni è risultato evidente che molte delle conoscenze ottenute attraverso gli studi in vitro non fornivano comunque predizioni valide e verificabili degli effetti fisiologici e patologici delle citochine in vivo. Inoltre gli immunologi hanno cominciato a porsi il problema di conciliare la non specificità delle citochine con la specificità delle risposte immunitarie adattative. In altri termini si sono domandati cosa trattenga le citochine non specifiche dall'attivare cellule in una maniera indifferenziata durante la risposta immunitaria. Queste domande stanno trovando risposte plausibili via via che vengono descritte le strutture dei recettori per le citochine e le modalità attraverso cui avviene la trasduzione del segnale che porta all'attivazione dei geni. Come si è visto, una maniera di mantenere la specificità è la regolazione dell'espressione dei recettori per le citochine sulle cellule. Spesso i recettori per le citochine sono espressi su una cellula dopo che questa ha interagito con l'antigene. In questo modo l'attivazione non specifica mediante citochine è limitata ai linfociti che hanno riconosciuto l'antigene. La risposta differenziale di diversi tipi di cellule ai segnali dipende inoltre in modo cruciale dalla storia delle cellule, dal luogo in cui i segnali vengono emessi e dal contesto, cioè da interazioni combinatorie di fattori regolativi con fattori di trascrizione specifici del tipo di cellula. Le interazioni combinatorie a livello dei percorsi trascrizionali possono ad esempio portare a diverse cinetiche di espressione dei geni in risposta a uno stesso stimolo. Le caratteristiche dei recettori cominciano anche a spiegare l'origine della ridondanza e della pleiotropia funzionale delle citochine. Infatti la struttura della maggior parte dei recettori mostra di condividere diversi fattori trascrizionali responsabili della trasduzione del segnale, cioè dell'attivazione dei geni delle cellule a cui si legano le citochine. I progressi nella comprensione della struttura delle citochine e dei loro meccanismi di segnalazione hanno fatto luce su alcuni principi fondamentali che sono alla base della regolazione cellulare mediata dalle citochine. Per esempio, anche se non sono ancora chiari tutti gli aspetti del controllo della produzione delle citochine, si è visto che alcune funzioni cellulari sono caratterizzate dalla produzione di particolari associazioni di citochine. Più precisamente è stato possibile nel corso dell'ultimo decennio verificare che i linfociti T helper, portatori del marcatore CD4, si differenziano, a seconda delle citochine che producono, in due sottopopolazioni, chiamate Thl e Th2, che sono responsabili l'una del controllo delle risposte microbicide delle cellule infiammatorie e l'altra dell'attivazione delle cellule B nella risposta anticorpale. Più recentemente questi due tipi di cellule (Thl/Th2), studiati soprattutto nel topo, e i cui analoghi sono stati identificati anche nell'uomo, appaiono responsabili del fatto che l'esito di una risposta antinfettiva risulti protettivo o dan-
www.scribd.com/Baruhk
Il sistema immunitario
noso (cioè che porti o meno alla guarigione) e dell'isotipo anticorpale prodotto in risposta a un determinato antigene. L'aspetto importante è che le citochine prodotte da una particolare sottopopolazione regolano il differenziamento dell'altra sottopopolazione. VI
·
CONCLUSIONE
Nel 1978 Frank Macfarlane Burnet riteneva che l'estrema complessità fisiologica del sistema immunitario rappresentasse un limite oggettivo per la ricerca sperimentale, affermando che lo studio dell'immunità verosimilmente non avrebbe più potuto contribuire all'incremento delle conoscenze biologiche fondamentali. In realtà le cose sono andate diversamente, e anche in prospettiva la ricerca immunologica si trova di fronte importanti sfide. Negli ultimi anni, per esempio, le immunoscienze hanno stretto ulteriori rapporti con le neuroscienze, dopo aver contribuito, come si è visto, alla genesi concettuale delle teorie selezionistiche della funzione nervosa e aver messo a disposizione dei neurobiologici preziosi strumenti di indagine sperimentale. Dalla seconda metà degli anni settanta si sono accumulate numerose evidenze empiriche del fatto che il sistema immunitario e il sistema neuroendocrino comunicano tra loro. L'idea che la funzione immunitaria e la funzione nervosa interagiscano non è recente. Le prime osservazioni attendibili riportate nella letteratura medica di correlazioni fra stress psicologici e suscettibilità alle malattie risalgono agli ultimi anni del secolo scorso. Tuttavia queste associazioni sono state prevalentemente concettualizzate sulla base di vaghe nozioni psicosomatiche, oppure hanno rappresentato un insieme eterogeneo di dati scarsamente significativi da un punto di vista funzionale. Durante gli ultimi tre lustri la ricerca neuroendocrino-immunologica si è indirizzata verso la caratterizzazione delle molecole e dei recettori condivisi dai sistemi immunitario e neuroendocrino, disvelando una complicata rete di interazioni basata su citochine, ormoni peptidici e neurotrasmettitori, che lascia intravvedere, accanto alle proprietà già riconosciute, anche una funzione immunoregolativa per il cervello e una funzione sensoriale per il sistema immunitario. Mentre il secolo volge alla fine, l'interesse di numerosi laboratori si sta riorientando verso lo studio dei meccanismi di interazione fra ospiti e parassiti, e dell'evoluzione delle risposte immunitarie. La descrizione delle interazioni cellulari che controllano le risposte immunitarie ha portato alla scoperta di diverse modalità attraverso cui i parassiti riescono a ingannare le difese dell'ospite, e di come proprio le reazioni immunitarie contro i parassiti possono essere responsabili delle manifestazioni cliniche più gravi delle malattie infettive. La descrizione dei sistemi di riconoscimento e segnalazione fra le cellule immunitarie, insieme alla scoperta della distribuzione differenziata dei recettori dei linfociti, suggerisce che l'origine evolutiva del sistema immunitario risiede verosimilmente proprio nell'esigenza dell'orga-
www.scribd.com/Baruhk
Il sistema immunitario
nismo di discriminare fra not sel/ infettivo e sel/ non infettivo. Negli ultimi anni si è fatto strada anche il concetto che il nostro sistema immunitario è tarato evolutivamente su un ambiente che oggi non esiste più, per cui le patologie causate direttamente dal sistema immunitario, quali le malattie allergiche e autoimmuni che colpiscono soprattutto le popolazioni dei paesi industrializzati, sarebbero in realtà dovute alla scomparsa dei principali agenti infettivi ovvero, di antigeni che probabilmente funzionavano come « invarianti ambientali» nella maturazione delle risposte immunitarie. In altre parti di questo saggio si è accennato al fatto che nel corso degli ultimi decenni il sistema immunitario è stato assunto come un esempio di sistema fisiologico a cui applicare le più sofisticate procedure sperimentali per lo studio della biologia dello sviluppo delle discendenze cellulari. Di fatto esso è non solo accessibile all'indagine sperimentale, ma le sue cellule possono essere isolate in forme relativamente pure e i recettori possono essere caratterizzati biochimicamente e clonati. Inoltre le cellule immunitarie possono essere trasferite a ospiti geneticamente simili, in cui dei marcatori specifici consentono di distinguere ospite e donatore e quindi di identificare le discendenze cellulari e i precursori che all'interno di queste discendenze daranno luogo a un'espansione clonale. Rispetto a questi problemi la frontiera della ricerca è rappresentata dallo studio dei meccanismi di segnalazione che controllano i cambiamenti del comportamento delle cellule attraverso l'attivazione di un complesso e articolato insieme di eventi trascrizionali. Nella sezione dedicata alle risposte dei linfociti alle citochine si è visto come questo campo di ricerca stia facendo i conti con indicazioni sperimentali contrastanti, che probabilmente, lungi dal dimostrare che certi fattori molecolari ritenuti essenziali siano invece secondari nel controllo del comportamento e dello sviluppo cellulare, corroborano una nuova visione dinamica della fisiologia dell'organismo. Una visione che sviluppa un concetto scaturito proprio dalla descrizione delle basi molecolari del meccanismo di riconoscimento immunologico, e che in sostanza rinuncia all'idea, semplicistica e riduttiva, che si possa associare, in modo univoco, ogni risposta di un sistema biologico a uno stimolo esterno, a una funzione specifica ed esclusiva. Invece proprio le risposte immunitarie mostrano l'esistenza a diversi livelli di organizzazione di sottoinsiemi di scelte che risultano funzionalmente equivalenti, pur essendo costituiti da differenti percorsi di controllo e segnalazione delle risposte cellulari o da repertori di molecole diverse. Vi sono significative evidenze empiriche, derivate soprattutto dallo studio dei processi di adesione fra le cellule e dei meccanismi di segnalazione e controllo attivati dalle molecole che mediano le interazioni adesive, che la fisiologia normale e patologica dell'organismo è governata da una biochimica cellulare tutt'altro che rigida e predefinita, e che dipende da dinamiche popolazionali a livello dei tessuti e degli organi in cui la stocasticità delle interazioni costituisce la condizione necessaria perché le risposte funzionali possano indirizzarsi selettivamente in senso adattativo.
www.scribd.com/Baruhk
Il sistema immunitario
Questi sono soltanto alcuni dei problemi specifici e generali aperti, che la ricerca immunologica potrà forse contribuire a risolvere. Si potrebbe quindi concludere osservando che oggi l'immunologia continua a essere, secondo la felice espressione di Burnet, «un microcosmo che riflette vividamente tutte le caratteristiche essenziali del cosmo biologico ». Solo che microcosmo e macrocosmo sono molto più ricchi e complicati di quanto Burnet potesse immaginare.
www.scribd.com/Baruhk
CAPITOLO
OTTAVO
La fisica delle interazioni fondamentali, della materia e del cosmo DI CARLO BECCHI
I
E
BIANCA OSCULATI
• INTRODUZIONE
Lo sviluppo delle ricerche in fisica fondamentale durante gli ultimi cinquant'anni non ha sicuramente precedenti nella storia del progresso scientifico e tecnologico. Non si può dubitare che tale sviluppo sia stato fortemente favorito da un flusso generosissimo di finanziamenti pubblici innescati in un primo tempo da interessi militari, e subito dopo dal problema energetico. È ben conosciuto il ruolo che la fisica nucleare ha avuto nel periodo successivo alla seconda guerra mondiale; d'altra parte, sono anche ben note le luci e le ombre della storia della produzione di energia di origine nucleare e del contributo che tale energia ha fornito e in parte continua a fornire al progresso della nostra civiltà. Il punto un po' meno noto è come l'attenzione ai problemi energetici e, in qualche caso, a quelli militari abbia spinto i politici ad accogliere favorevolmente le richieste dei fisici e in modo particolare dei fisici nucleari; mentre la ricerca fondamentale sulla struttura dei nuclei e sulle loro interazioni a bassa energia compiva il suo ciclo vitale con la formulazione di modelli adatti a spiegare in modo sostanziale proprietà principali dei nuclei, il flusso dei finanziamenti veniva sempre più rivolto allo studio della materia subnucleare il cui collegamento col problema energetico è perlomeno remoto. Nel settore subnucleare le risorse disponibili hanno mantenuto costantemente un livello ragguardevole, direttamente proporzionale all'incremento dell'energia massima ottenibile dagli acceleratori di particelle che svolgono il ruolo di microscopi nella corsa verso l'infinitamente piccolo. Questa energia ha tenuto un ritmo di crescita costante di circa un ordine di grandezza ogni vent'anni e solo recentemente è apparsa qualche tendenza al rallentamento; non ha più di due anni la decisione del Congresso americano di abbandonare il progetto di un nuovo acceleratore superpotente già in fase di realizzazione vicino a Dallas nel Texas. Volendo oggi tentare di formulare un bilancio dei risultati, occorre innanzi tutto ribadire che la ricaduta di queste ricerche sul versante delle applicazioni tecnologiche è stata limitata e indiretta: la tecnologia degli acceleratori e quella dei rivelatori di particelle hanno avuto qualche applicazione in campo medico e un ulteriore 286
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
progresso in questo senso è prevedibile per il prossimo futuro; più importante è invece il contributo fornito all'.analisi dei materiali inerti e biologici dalle cosiddette sorgenti di luce di sincrotrone. Un certo rilievo hanno i progressi tecnologici indotti dallo sviluppo degli acceleratori come la produzione di magneti e di cavità superconduttrici. Resta comunque il fatto sostanziale che il bilancio va basato sui progressi a livello di conoscenza fondamentale. Per procedere nella valutazione bisogna stabilire come si misura lo sviluppo o almeno in che senso un certo sviluppo va considerato positivo per il progresso della scienza. In questa valutazione verranno assunti due parametri fondamentali: in primo luogo, l'espansione dei confini della ricerca, in secondo luogo, il livello di unificazione sia concettuale sia metodologico. Proprio in questa luce il bilancio che verrà tracciato apparirà particolarmente positivo; infatti vedremo come la meccanica quantistica e relativistica abbia imposto una spinta verso l'unificazione di concetti intuitivamente del tutto distinti, come quelli di particella e di forza, e successivamente verso l'unificazione di tutte le forze in un unico sistema - peraltro non ancora compiuto. forte impulso allo sviluppo del settore della fisica subnucleare ha indotto notevoli progressi anche in discipline parallele. Ciò è avvenuto in vari modi, il primo dei quali riguarda l'incrocio metodologico di cui l'esempio più classico è stato l'introduzione sistematica nello studio della fisica della materia condensata dei metodi sviluppati per la costruzione della teoria dei campi. Su un piano diverso e non meno importante si è avuto un flusso di investimenti dalla fisica delle alte energie verso altri settori. Tipico in questo senso è l'esempio dell'Italia, dove sia al livello della utilizzabilità delle infrastrutture sia con supporti più diretti, la ricerca nucleare ha favorito lo sviluppo di una serie di altre aree che vanno dalla fisica della materia condensata a quella dei plasmi, alla biofisica. Ultimo in ordine di tempo ma non d'importanza è il contributo allo sviluppo dell'astrofisica particellare, cioè a quel settore dell'astrofisica che in modo più diretto si incrocia con la fisica subnucleare. Uno spazio adeguato va dato inoltre alle spinte verso la revisione critica dei concetti realizzatasi nella meccanica quantistica, nel cui ambito si è svolta principalmente la revisione radicale degli schemi stimolata dalla fisica moderna. Grazie allo sviluppo tecnologico, è oggi possibile realizzare tutta una serie di esperimenti che al momento della fondazione delle teorie quantistiche erano stati proposti solo al livello concettuale. I nuovi esperimenti non fanno che confermare sistematicamente le previsioni quantistiche; la cosa non stupisce dato che le conferme, già venute dalle previsioni corrette in tutti i campi, sono molto più significative di quanto possano esserlo pochi esperimenti molto specifici. Il vero problema con la meccanica quantistica è che la sua struttura radicalmente probabilistica non può essere estesa alla descrizione dell'osservatore che pretende di acquisire conoscenze certe. Man mano si deve dimenticare che la meccanica quantistica ha una struttura inevitabilmente riduzionista come peraltro tutti gli schemi scientifici - , riferita pressoché unicamente a sistemi
n
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
chiusi; la vera difficoltà sta piuttosto nella mancanza di un modello riduzionista di osservatore conscio. Una breve discussione sul problema dei fondamenti della meccanica quantistica permetterà di iniziare l'esame dei recenti progressi della fisica; seguirà uno studio della fisica delle particelle e delle forze che condurrà ai tentativi di unificazione generale delle interazioni; verranno poi prese in considerazione brevemente alcune applicazioni della meccanica quantistica alla fisica della materia condensata, per terminare con una descrizione delle relazioni fra fisica e cosmologia che dimostrano la vastità della portata della fisica moderna. II
·
IL
PROBLEMA
DEI
FONDAMENTI
All'inizio degli anni trenta l'inglese P.A.M. Dirac (1902-84) e l'ungherese J. von Neumann proposero una sistemazione assiomatica della meccanica quantistica che non ha successivamente ricevuto correzioni degne di nota. n punto di partenza di questa formulazione è la linearità dello spazio degli stati, da cui seguono direttamente gli effetti di interferenza caratteristici della nuova meccanica. Prendendo in considerazione un fascio di particelle, per esempio elettroni, intercettato da uno schermo recante due fenditure, si descrive lo stato di ogni elettrone del fascio emergente oltre lo schermo come la sovrapposizione (che matematicamente viene rappresentata dalla combinazione lineare) dei due stati che si avrebbero se lo schermo recasse una sola delle due fenditure. Con combinazione lineare si intende la somma delle entità rappresentative dei due stati moltiplicate per opportuni coefficienti. I coefficienti sono in generale numeri complessi il cui modulo al quadrato ha un significato probabilistico. Se si misura la distribuzione degli elettroni su un piano perpendicolare al fascio posto oltre lo schermo, lo stato così costruito produce una figura di diffrazione del tutto simile a quella generata da un fascio di luce in una situazione analoga. Questa figura è provocata dall' interferenza sul piano di misura degli stati emergenti dalle due fenditure. Si noti che la combinazione lineare di due stati non è caratterizzata da un minor contenuto informativo rispetto agli stati di partenza, infatti la struttura matematica dell'insieme degli stati, che tecnicamente viene detto lo «spazio degli stati», è tale che, cambiando la natura delle proprietà fisiche in esame, uno stato generico viene rappresentato come sovrapposizione dei nuovi stati di riferimento. Questa è la conseguenza diretta dell'impossibilità di accertare simultaneamente certe proprietà fisiche ed è dovuta al principio d'indeterminazione di Heisenberg. Sovrapposizione e indeterminazione sono due concetti strettamente collegati. Se, volendo accrescere le informazioni in nostro possesso sullo stato generato dallo schermo con due fenditure, attivassimo un apparato di misura tale da fornire informazioni circa la fenditura effettivamente attraversata da ogni singolo elettrone, produrremmo una automatica transizione dallo stato iniziale, caratterizzato dalla
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
figura di interferenza, a quello ottenibile praticando nello schermo solo la fenditura effettivamente attraversata dall'elettrone. È notevole il fatto che la transizione (tecnicamente detta riduzione) sia prodotta dalla messa in opera dell'apparato di misura e non sia condizionata dal fatto che il risultato sia effettivamente acquisito da uno sperimentatore. Da queste considerazioni appare evidente un contrasto fra il comportamento del sistema in esame (gli elettroni in presenza dello schermo, che, se osservato, subisce bruschi cambiamenti di stato) e gli apparati di misura che vorremmo non perturbati dall'azione dell'osservatore. Infatti, parrebbe necessario supporre che l' apparecchiatura atta a fornire un dato su un sistema non sia essa stessa soggetta a indeterminazione, almeno per quanto riguarda il dato acquisito; dunque l'apparato stesso va descritto in termini classici e le proposizioni che lo riguardano vanno inquadrate nella logica di Boole. Del tutto diversa è invece la struttura della logica quantistica; l'esistenza dell'interferenza risulta incompatibile sia con l'affermazione che l'elettrone ha attraversato la prima fenditura, sia con la sua negazione, secondo .cui è implicito che l'elettrone abbia attraversato l'altra fenditura. In generale, dunque, si ha un netto contrasto fra gli stati dei sistemi quantistici che hanno caratteristiche microscopiche e sono soggetti a sovrapposizione e quindi anche a indeterminazione e quelli degli apparati di misura che, essendo sistemi macroscopici dovrebbero necessariamente avere un comportamento di tipo classico, e cioè determinato nel senso della fisica classica. Va però notato a questo punto che una semplice relazione fra il tipo di comportamento e la complessità del sistema non è compatibile con le leggi della meccanica quantistica. Per illustrare con chiarezza le implicazioni di queste leggi si è soliti proporre una situazione ipotetica che schematizza un processo di misura con tutti i suoi aspetti paradossali. Si tratta del caso del gatto di Schrodinger. In un ambiente angusto e chiuso, completamente isolato dall'esterno, sono disposti un atomo radioattivo e un rivelatore dei prodotti del decadimento dell'atomo stesso. Il rivelatore, attivato dal decadimento, lascia cadere una pastiglia di cianuro in una vaschetta di acido. Ma, non visto, il gatto di Schrodinger si intrufola nel locale un attimo prima che venga chiuso. Un terribile destino attende il povero gatto: entro pochi minuti l'atomo sarà sicuramente decaduto e avrà provocato inevitabilmente la liberazione del gas cianidrico, letale per l'animale. Dato che tutto dipende dal comportamento dell'atomo, è necessario utilizzare i concetti della meccanica quantistica, secondo cui l'atomo si evolve dallo stato iniziale a una combinazione lineare, nello stesso senso dell'esperimento delle due fenditure, dello stato iniziale e di quello disintegrato. Con il passare del tempo, la combinazione lineare evolverà necessariamente dalla prevalenza dello stato iniziale a quella dello stato disintegrato. L'automatismo dell'apparato di rivelazione correla la sorte dell'atomo a quella del gatto, per cui ciò che in effetti sta accadendo nel locale è che una combinazione lineare dello stato di atomo iniziale e gatto vivo e di quello di atomo disintegrato e gatto
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
morto sta evolvendo verso la seconda situazione. Bisogna dunque ammettere che questa è l'unica descrizione possibile dell'evento ed è quindi inevitabile estendere la descrizione quantistica basata sulla sovrapposizione degli stati anche alla condizione dell'animale, che sicuramente non può essere considerato microscopico. Non si può quindi risolvere il problema del contrasto fra comportamento quantistico e comportamento classico affermando che il primo caratterizza i sistemi semplici e microscopici, mentre il secondo si riferisce a quelli complessi e macroscopici. Inoltre, assegnando al gatto e alla sua trappola mortale il ruolo di apparato di misura, ci vediamo ora costretti a negare quello che avevamo ammesso poco sopra, cioè che all'apparato vada necessariamente assegnato un comportamento classico. La nostra descrizione del fatto, che sappiamo essere completa, ci impedisce di rispondere con certezza alla domanda se a un dato istante il gatto sia vivo o morto, né possiamo accertarcene direttamente perché il locale è chiuso e inaccessibile; se noi, eventuali osservatori esterni, potessimo entrare in gioco, l'intera analisi dovrebbe essere rivista, perché bisognerebbe tener conto della nostra presenza anche nella descrizione dello stato iniziale del sistema. Un altro aspetto, meno drammatico ma altrettanto sconcertante, della teoria quantistica è stato illustrato da Einstein in collaborazione con B. Podolsky e N. Rosen. Per descrivere brevemente la loro analisi si farà riferimento allo studio della disintegrazione spontanea in due fotoni di una particella cosiddetta elementare in uno stato iniziale perfettamente isotropo, e cioè invariante per rotazioni intorno a un punto di riferimento che possiamo identificare con l'origine delle coordinate. Per identificare completamente lo stato iniziale della particella è necessario fornire ulteriori informazioni che, peraltro, non avranno alcuna rilevanza nel seguito, purché lo stato stesso sia sufficientemente localizzato. Si immagina che l'esperimento sia ripetibile molte volte partendo da condizioni iniziali esattamente equivalenti e che sia pertanto possibile un'analisi statistica dei risultati. Dopo la disintegrazione i due fotoni si allontanano in direzioni opposte e alla velocità della luce dalla zona in cui si trovava inizialmente la particella, la cui energia cinetica è supposta trascurabile rispetto a quella di riposo. Secondo quanto prevede la teoria quantistica, ciascuno dei due fotoni, preso separatamente, risulta impolarizzato: la radiazione a esso associata non ha alcun piano di oscillazione preferito fra quelli che contengono la direzione di propagazione del fotone. Se un osservatore tenta di separare i fotoni polarizzati parallelamente rispetto a un piano particolare, allora egli seleziona la metà dei casi esaminati qualunque sia il piano scelto, nell'altra metà dei casi, infatti, il piano di polarizzazione è automaticamente perpendicolare a quello prescelto. La situazione è differente nel caso in cui ci siano due sperimentatori che si dispongano a esaminare simultaneamente i due fotoni prodotti da ciascuna disintegrazione spontanea. In questo caso infatti la meccanica quantistica prevede che, se uno dei due sperimentatori osserva il proprio fotone polarizzato lungo un certo
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
piano, automaticamente l'altro osservatore troverà il proprio fotone polarizzato lungo il piano perpendicolare al precedente, senza che sia però possibile alcuno scambio di informazione fra i due misuratori che compiono le loro osservazioni allo stesso istante e a distanze eventualmente elevate. Lo pseudo paradosso di questa situazione sta nella previsione che ogni singolo fotone porti un'informazione casuale circa il proprio piano di polarizzazione, ma che esista una stretta correlazione fra il comportamento di un fotone e quello del suo gemello che si allontana nella direzione opposta. Questa correlazione potrebbe non apparire paradossale dal punto di vista della logica ordinaria solo ammettendo che la particella iniziale porti una « variabile nascosta » oscillante casualmente fra due valori e che essa scelga in base al valore assunto dalla variabile le polarizzazioni dei due fotoni, mantenendole comunque perpendicolari. Con questa ipotesi il comportamento dei sistemi quantistici sarebbe del tutto analogo a quello classico, e la distinzione fra i due comportamenti sarebbe determinata dall'esistenza di variabili nascoste. La linea di pensiero delle variabili nascoste ha avuto nel passato molti adepti fra cui personaggi di spicco come il duca de Broglie (1892-1987), ma i tentativi di formulare teorie convincenti in questo ambito si sono sistematicamente infranti contro ostacoli insormontabili. Una spiegazione chiara di tali difficoltà è stata fornita nel 1965 dal fisico scozzese J.S. Beli. Questi ammise l'esistenza di variabili nascoste, ma pose come condizione irrinunciabile il rispetto del prinàpio di località che esclude ogni possibilità di rapporti causali fra eventi separati da un intervallo di tempo inferiore a quello necessario alla luce per coprire la loro mutua distanza; sotto queste condizioni Beli dimostrò l'esistenza di precisi vincoli circa le possibili correlazioni dei risultati di misure distinte. Questi vincoli, espressi in forma di disuguaglianze, sono stati recentemente sottoposti ad accurate verifiche sperimentali: gli esperimenti sinora condotti hanno dimostrato che nella realtà le disuguaglianze di Beli sono violate, mentre le previsioni della meccanica quantistica sono rispettate. Un'interpretazione della fisica quantistica in termini di variabili nascoste dunque necessariamente viola il principio di località e quindi anche la relatività einsteiniana. Tutto sembra indicare la prevalenza della descrizione quantistica su quella classica anche se ciò implica, in linea di principio, la generalizzazione del concetto di sovrapposizione e quindi anche di indeterminazione a ogni tipo di sistema, ovvero anche alle nostre conoscenze. Le conseguenze di questa conclusione sul piano filosofico dovrebbero apparire evidenti. Tuttavia, come aveva già osservato Beli, a tutti gli effetti pratici l'indeterminazione quantistica appare trascurabile nel caso di sistemi complessi (come gli animali), sistemi per i quali un singolo stato classico può corrispondere a un numero enorme di stati quantistici. Dal punto di vista della fisica pertanto la discussione è chiusa, nel senso che in tutte le situazioni in cui è stato possibile sviluppare completamente i calcoli e formulare previsioni precise, queste sono state confermate dalle verifiche sperimentali e non è mai stato rilevato alcun
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
fenomeno che contrasti con l'interpretazione quantistica; tuttavia il meccanismo della riduzione dello stato generata dal processo di misura, rimane oggetto di accese e spesso fantasiose discussioni e interpretazioni. Tra queste, alcune vorrebbero mettere in evidenza il ruolo di un osservatore cosciente, ma portano a conclusioni in netto contrasto con la realtà; altre mettono l'accento sulla irreversibilità del processo di riduzione collegato con l'evoluzione spontanea di sistemi molto complessi (si pensi all'inesorabile catena che ha ucciso il gatto di Schrodinger), ma devono fare i conti col fatto che questo tipo di irreversibilità non è riconducibile al livello delle leggi fondamentali. Si è anche ipotizzato un meccanismo di riduzione basato su una localizzazione periodica e spontanea degli stati quantistici, ma questo meccanismo richiede l'esistenza di un sistema di riferimento privilegiato e quindi contrasta con l'ipotesi di relatività. Si è giunti persino a suggerire, come ha fatto H. Everett III nel 1957, che tutti i possibili esiti di ogni processo di misura si attuino in realtà in una moltitudine di universi distinti ma equivalenti. Citati, a titolo di pura cronaca, anche gli sviluppi non propriamente fisici della discussione sulla meccanica quantistica, possiamo concludere questa analisi dei fondamenti osservando che nella formulazione del gruppo di Copenaghen diretto da N. Bohr resta un paradosso sostanziale: nonostante il completo successo sul piano fenomenologico, dal punto di vista strettamente logico la teoria non appare esauriente, perché ammette nella trattazione matematica del processo di misura il fenomeno della riduzione degli stati, senza darne una giustificazione dinamica. III · GLI SVILUPPI
DELLA
FISICA
QUANTISTICA
Nei precedenti capitoli di quest'opera dedicati alla fisica quantistica è stato descritto l'inizio del processo di costruzione, mostrando come dalla fusione delle idee di Einstein, Bohr, de Broglie e Schrodinger sia stato possibile creare una teoria atomica in grado di prevedere le proprietà spettrali della radiazione emessa. In sostanza, l'assegnazione di proprietà ondulatorie alla materia e, in particolare, agli elettroni impone la selezione, fra tutte le possibili orbite intorno al nucleo atomico, di quelle la cui lunghezza risulti pari a un numero intero di lunghezze d'onda. In termini più comuni potremmo dire che, come un organo produce i suoni su cui sono accordate le sue canne, così l'atomo ammette solo le orbite accordate in base alle proprietà ondulatorie della materia. Un aspetto importante della quantizzazione riguarda il momento della quantità di moto, o momento angolare. È noto che, nel caso di particelle materiali attratte da un punto fisso (caso in cui le equazioni del moto sono invarianti per rotazioni intorno a quel punto), si ha un'orbita piana ed è costante la velocità areolare, cioè l'area coperta nell'unità di tempo dalla congiungente la particella col punto fisso. Si definisce momento angolare un vettore perpendicolare al piano orbitale, diretto dalla parte di un osservatore che vede il moto svolgersi nel senso antiorario, e tale 292
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
che la sua lunghezza sia eguale al prodotto della massa per la velocità areolare. Nel caso considerato, ma più in generale in ogni sistema le cui equazioni del moto siano invarianti per rotazioni intorno a un punto, il momento angolare è una costante del moto. In meccanica quantistica la proiezione del momento angolare lungo un asse qualunque assume solo valori pari a un multiplo intero della costante di Planck h divisa per 21r, indicata con h. Si è anche già discusso degli effetti diffrattivi previsti dalla nuova fisica e confermati da numerosi esperimenti nel caso di particelle il cui movimento sia vincolato da ostacoli. Tra i sistemi meccanici semplici su cui si è concentrato l'interesse dei fisici (oltre all'atomo) va considerato brevemente, per la sua rilevanza in quasi tutti i settori della fisica, quello dell'oscillatore armonico. È identificabile con una combinazione di oscillatori armonici ogni sistema meccanico che compia oscillazioni di piccola ampiezza intorno a un punto di equilibrio; si pensi alla lampada del duomo di Pisa che, secondo la leggenda, attirò l'attenzione di Galileo per l'isocronia delle sue oscillazioni. Nel caso dell'oscillatore armonico la previsione della teoria quantistica è assai semplice: come nel caso atomico, i possibili livelli di oscillazione devono accordarsi con le proprietà ondulatorie della particella oscillante, e questo accordo seleziona livelli discreti di energia. Si mostra che la distanza in energia L1E fra due livelli vicini è legata alla frequenza v propria dell'oscillatore dalla relazione di Einstein: L1E = hv. Inoltre, se l'oscillatore viene sollecitato da una debole forza esterna, esso compie transizioni fra livelli contigui con una probabilità proporzionale al quadrato dell'ampiezza di oscillazione del sistema. L'importanza di questi semplici risultati è evidente, data la vastissima applicabilità del modello di oscillatore armonico, dalla storica lampada alle corde di una chitarra. Molto meno evidente è invece la relazione fra gli stati di un sistema di oscillatori armonici e quelli di un insieme di particelle quantistiche identiche e non interagenti fra di loro. Questa relazione che ora illustreremo ha innescato la vera rivoluzione della fisica quantistica suggerendo quelle idee che, dall'unificazione dei concetti di campi di forza e materia, hanno portato alla formulazione di una teoria generale e unitaria delle interazioni e dei processi fondamentali. Per quanto riguarda le particelle quantistiche identiche, occorre notare innanzi tutto che l'indistinguibilità di oggetti identici a livello quantistico è molto più rilevante che nel caso classico. Infatti due sistemi classici, per quanto identici, saranno distinti in base alle loro posizioni iniziali e quindi in base alle loro traiettorie. Venendo però meno il concetto di traiettoria, in meccanica quantistica due corpi identici, pur distinti in base alle loro localizzazioni iniziali, potranno nel seguito confondersi e produrre effetti interferenti. Questo accade per esempio quando si correlino le intensità di rivelazione simultanea di fotoni emessi da punti diversi di un sistema stellare, per esempio una stella doppia, e osservati da telescopi distinti posti anche a grande distanza fra loro. Si tratta di un effetto descrivibile in modo analogo alla diffrazione generata da due fenditure, ma che coinvolge due fotoni e 293
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
due rivelatori (i telescopi) invece di un solo rivelatore e un solo fotone per volta. Se per semplicità si suppone che i fotoni rivelati siano stati emessi dalle due diverse componenti di una stella doppia, allora, a causa dell'indistinguibilità quantistica, si hanno effetti d'interferenza misurabili dalla sovrapposizione dello stato in cui il primo fotone viene rivelato da un rivelatore e il secondo dall'altro e dallo stato ottenuto scambiando il ruolo dei telescopi. In questo modo la correlazione quantistica produce effetti interferenziali a grandissima base, cioè fra osservatori posti a grandissima distanza, che permettono di raggiungere in radioastronomia risoluzioni angolari nettamente inferiori al secondo d'arco. I processi di emissione e assorbimento di particelle furono studiati da Einstein nel suo fondamentale lavoro sullo spettro del corpo nero. Partendo dall'osservazione che la probabilità di assorbimento di una particella da un certo stato è proporzionale al numero delle particelle a essa identiche presenti nello stesso stato e assumendo la reversibilità dei processi elementari, Einstein concluse che la probabilità di emissione di una particella in uno stato occupato da N particelle dello stesso tipo deve essere proporzionale a N+l. Questo effetto di emissione stimolata dalla presenza di altre particelle nello stato finale è una chiar~ conseguenza dell'interferenza e della indistinguibilità quantistiche. Applicato alla radiazione elettromagnetica raccolta in una cavità dalle pareti conduttrici, esso ha permesso la costruzione di amplificatori della radiazione comunemente noti con l'acronimo MASER, che significa amplificatori di microonde tramite emissione stimolata; si tratta di strumenti particolarmente importanti in radioastronomia. Lo stesso principio di funzionamento, applicato però alla luce visibile raccolta in una cavità con pareti speculari, ha permesso la costruzione dei famosi LASER, in cui la presenza di fotoni induce l'ulteriore emissione di radiazione nello stesso stato da parte degli atomi eccitati presenti. Nel nuovo acronimo la M, iniziale di microonde, è sostituita da L, iniziale di luce. Il ruolo del LASER nelle sue infinite applicazioni, dall' optoelettronica alle officine meccaniche e alle guerre stellari, è argomento di stampa quotidiana e non verrà ulteriormente commentato, se non con l'osservazione che gli effetti quantistici di correlazione-interferenza in sistemi di particelle identiche hanno trasferito l'interesse per la nuova fisica dal campo puramente speculativo a quello delle applicazioni pratiche e allo sviluppo tecnologico; la fisica quantistica non è più un argomento di interesse per una ristretta cerchia di dotti, ma diventa uno strumento essenziale per il progresso tecnologico. Riprendendo la linea di analisi sugli sviluppi concettuali e unificanti indotti dallo studio dei sistemi quantistici di particelle identiche, ricordiamo i fatti più importanti registrati finora. Si è visto come le particelle quantistiche, in assenza di interazione reciproca, possano accumularsi in uno stesso stato e come la probabilità di ulteriori emissioni o di assorbimenti di particelle dallo stato considerato cresca con l'occupazione dello stato stesso; è peraltro evidente che l'energia accumulata nello stato cresce col numero 294
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
di particelle presenti. Va a questo punto notata la completa analogia fra la descrizione di n particelle che occupano un singolo stato e il livello ennesimo di un oscillatore armonico; in entrambe le situazioni l'energia cresce proporzionalmente al numero intero n. Inoltre, anche le probabilità di emissione o di assorbimento di una particella e quello di un quanto di energia crescono proporzionalmente al numero delle particelle e, rispettivamente, dei quanti presenti. È possibile dimostrare che questa corrispondenza è completa e che pertanto, dal punto di vista quantistico, un sistema costituito da un numero variabile di particelle identiche, non interagenti fra loro, si identifica con un sistema di oscillatori armonici. Si ha un oscillatore per ogni stato con energia definita di una particella. Si vedrà più avanti che quanto qui enunciato non è completamente generale, ma si riferisce a una ben determinata categoria di particelle dette bosoni perché il loro comportamento è stato descritto per la prima volta dall'indiano S. Bose (r8941974), oltre che da Einstein. Le altre particelle hanno un comportamento del tutto opposto: la presenza di altri occupanti in un dato stato, lungi dal facilitarla, blocca la possibilità di ulteriori emissioni nello stato considerato. Vige quindi per le particelle di questo secondo tipo, dette fermioni (da Enrico Fermi che per primo ne indicò le proprietà statistiche), un principio di esclusione, formulato dal fisico tedesco W. Pauli (1900-58) allo scopo di spiegare la stabilità degli atomi a molti elettroni. Gli elettroni sono appunto fermioni. I comportamenti opposti dei due tipi diversi di particelle, bosoni e fermioni, sono peraltro strettamente collegati dal formalismo della meccanica quantistica. Infatti l'ente matematico rappresentativo dello stato del sistema di particelle identiche, che nel formalismo di Schrodinger viene chiamato funzione d'onda, mentre in quello di Dirac e von Neumann è detto vettore di stato, rimane lo stesso se si scambiano le coordinate di una coppia di particelle nel caso bosonico, ma cambia segno nel caso fermionico. Questa proprietà è sufficiente a spiegare gli effetti sopra descritti. Se, per esempio, nel caso fermionico, due particelle occupassero lo stesso stato, lo scambio delle loro coordinate non potrebbe avere alcun effetto sulla funzione d'onda che invece deve cambiare segno; questo esclude automaticamente la possibilità che due particelle occupino lo stesso stato. Torniamo ora a trattare dei sistemi di bosoni non interagenti e della identificazione quantistica di tali sistemi con insiemi di oscillatori armonici. Ovviamente l'identificazione è una proprietà simmetrica, quindi gli stati di un qualunque sistema di oscillatori quantistici sono interpretabili in termini di bosoni identici. L'importanza di questo risultato della teoria quantistica è tale da meritare il titolo di seconda quantizzazione. Infatti, come vedremo, la seconda quantizzazione, combinata con la relatività, porta in modo naturale all'unificazione del concetto di campo di forza con quello di particella. Già nell'Ottocento Ampère, Faraday e Maxwell avevano unificato le teorie delle interazioni elettriche e magnetiche creando la teoria del campo elettromagnetico, in cui l'idea di interazioni a distanza fra le cariche e le cor295
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
rentl s1 sostituiva con quella di un'interazione locale fra le particelle portatrici di carica e il campo elettromagnetico, inteso come proprietà dello spazio in cui le particelle sono immerse. Si suggeriva in particolare che gli stati del campo fossero identificabili con stati di polarizzazione di una sostanza impalpabile, capace di occupare tutto lo spazio, e detta etere. L'importanza dell'autonomia del concetto di campo appare evidente dalla principale conseguenza della teoria di Maxwell, l'esistenza delle onde elettromagnetiche. Queste corrispondono a stati del campo che esistono e si propagano nello spazio (o, come si pensava allora, nell'etere) indipendentemente dalla presenza di cariche e con una velocità fissa, pari a circa 30o.ooo chilometri al secondo. Constatata l'inconsistenza fenomenologica dell'ipotesi dell'etere, ma ipotizzando l'assoluta correttezza della teoria di Maxwell, Einstein ha formulato la sua teoria della relatività ristretta. La dinamica autonoma del campo elettromagnetico, che conduce alla propagazione del campo sotto forma di onde, è riducibile a quella di un sistema di oscillatori armonici. All'interno di una scatola a pareti riflettenti, il campo elettrico e quello magnetico possono oscillare liberamente secondo certi modi accordati con le dimensioni della scatola stessa, così come il suono si accorda alle dimensioni della cassa di risonanza di uno strumento. Ciascun modo è identificabile con un oscillatore armonico indipendente; nello spazio libero i modi si combinano dando luogo alla propagazione ondulatoria. Dal punto di vista quantistico, in base all'identificazione fra oscillatori e particelle, uno stato del campo va descritto in termini di un sistema di particelle indipendenti. Si tratta dei fotoni. È con la seconda quantizzazione che il fotone entra a pieno titolo nella fisica quantistica. Anche se l'idea di fotone appare, come quanto di energia elettromagnetica, già nella teoria dell'effetto fotoelettrico di Einstein, il ruolo della particella fotone è comprensibile solo attraverso la seconda quantizzazione. La seconda quantizzazione ha aperto due principali linee di sviluppo della fisica moderna; in primo luogo si vedrà nei prossimi paragrafi come la combinazione fra la meccanica quantistica e la relatività ristretta conduca alla formulazione di una teoria generale delle particelle elementari e, quindi, delle interazioni fondamentali. Si mostrerà inoltre come la meccanica quantistica e in particolare la seconda quantizzazione abbiano consentito grandi progressi nella comprensione delle proprietà della materia condensata alle basse temperature. IV ·
LA
SCOPERTA
DELLE
PARTICELLE
ELEMENTARI
La teoria della relatività ristretta risolse le inconsistenze dell'elettrodinamica dei mezzi in movimento, ma aprì il problema generale della teoria delle forze. Infatti i nuovi concetti di spazio e di tempo, anzi di spazio-tempo, introdotti da Einstein, sono incompatibili con l'idea di interazione a distanza assunta per esempio nella formulazione di Newton della legge della gravitazione.
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
Una forza che si esercitasse istantaneamente fra due corpi permetterebbe la trasmissione di messaggi istantanei, cioè con velocità infinita, e questi messaggi verrebbero visti da un osservatore in movimento rispetto ai due corpi come propagantisi nel passato. Tale considerazione mostra lo stretto legame fra il principio di località, che esclude l'esistenza di oggetti estesi rigidi, e quello di causalità, secondo cui ogni causa deve precedere il suo effetto. È chiaro come l'ammissione di una forza a distanza sconvolga ogni principio di causalità e non sia pertanto accettabile. In una teoria relativistica il concetto stesso di forza a distanza è subordinato a quello di campo di forze da intendersi come capace di propagazione e quindi dotato di una propria autonomia dinamica. Per questo, una volta determinato, grazie alla scoperta del neutrone dovuta a J. Chadwick, che i nuclei atomici sono assimilabili a goccioline di un liquido costituito da nucleon i (cioè da protoni e neutroni) e che, proprio come in un liquido, il volume occupato è proporzionale al numero dei costituenti, H. Yukawa (1907-81) nel 1935 ipotizzò l'esistenza di un campo di forze nucleari, dette forti per distinguerle da quelle più deboli che sono responsabili della radioattività /3; Yukawa suggerì che questo campo avesse raggio d'azione limitato e previde le proprietà delle particelle a esso associate. Per capire il significato dell'ipotesi di Yukawa è opportuno analizzare gli aspetti più semplici del processo di unificazione nello sviluppo della fisica dal punto di vista dell'analisi dimensionale. Si può partire dai due episodi principali nella fisica dell'Ottocento: l'unificazione di meccanica e teoria del calore a opera di Boltzmann e l'unificazione elettromagnetica dovuta a Maxwell. Per quanto riguarda il primo caso, a prescindere dall'introduzione dei vari modelli statistici e cinetici, il passo cruciale consistette nella scoperta di una costante fondamentale, la costante di Boltzmann, che permette un confronto diretto tra le scale delle temperature assolute e quelle delle energie tramite la relazione: E = kT. Questa equazione esplicita l'ordine di grandezza dell'energia di agitazione molecolare a una data temperatura, che chiameremo energia termica. Essa è sostanzialmente indipendente dal particolare modello meccanico assunto per la molecola. L'espressione esatta dell'energia molecolare prevede un ulteriore coefficiente di proporzionalità che dipende dal modello, ma che è comunque dell'ordine dell'unità. Il secondo caso ha richiesto l'introduzione di un'altra costante fondamentale, la velocità della luce. Si è già detto che la teoria di Maxwell ha portato Einstein alla formulazione della teoria della relatività e all'introduzione del concetto di spazio-tempo, ci limitiamo ora a osservare che la velocità della luce unifica il concetto di spazio con quello di tempo, nel senso che fornisce una misura della scala delle distanze coinvolte in processi relativistici in termini della loro durata. Dunque, in condizioni relativistiche, ha perfettamente senso misurare le distanze in termini di scala temporale, cioè in secondi-luce, o se si vuole, anni-luce come fanno gli astronomi. L'uso di una stessa scala per le misure di spazio e tempo è molto conveniente da un punto di vista fondamentale, e quindi relativistico, perché permette un'ovvia 297
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
semplificazione delle equazioni. Non appare conveniente nella pratica quotidiana solo perché la nostra vita è non relativistica e un secondo-luce, pari a 30o.ooo chilometri, non è adatto a misurare le lunghezze ordinarie. L'unificazione delle scale spaziali e temporali induce l'unificazione delle energie e delle masse tramite la famosa formula di Einstein per l'energia di riposo di un corpo: E = mc 2 • Anche in questo caso, l'unificazione delle scale di massa e di energia, pur conveniente nella fisica relativistica, risulta del tutto impraticabile nella vita di ogni giorno. In modo del tutto analogo possiamo dire che l'identificazione della scala energetica con quella termica in base alla relazione di Boltzmann è conveniente al livello microscopicofondamentale, ma non a quello macroscopico, perché le energie degli oggetti ordinari appaiono eccessivamente grandi se misurate nella scala microscopica. L'ultimo e definitivo passo lungo la via dell'unificazione delle grandezze fisiche fondamentali seguì all'introduzione della costante di Planck e alla formulazione della meccanica quantistica. La relazione per l'effetto fotoelettrico, E = hv, permette un confronto diretto della scala delle energie con quella delle frequenze e quindi dei tempi, dato che l'unità naturale di frequenza è il reciproco di quella della scala temporale. Pertanto la meccanica quanto-relativistica prevede un'unica grandezza fisica fondamentale, che normalmente viene identificata con quella delle energie messe in gioco nel processo studiato; la massa unitaria è identificata col rapporto fra l' energia unitaria e il quadrato della velocità della luce, il tempo unitario è collegato al rapporto fra la costante di Planck e l'energia unitaria, e la lunghezza unitaria è il prodotto del tempo unitario per la velocità della luce. La scelta dell'unità di energia dipende dal processo preso in esame; in pratica le leggi della fisica quanto-relativistica vengono studiate analizzando i processi d'urto di particelle quali il protone o l'elettrone accelerati da campi elettromagnetici intensi. In queste condizioni l'energia di riferimento è quella ceduta dai campi elettromagnetici a ciascuna particella; quest'energia è il prodotto della carica della particella, che a meno del segno si identifica con quella dell'elettrone, per la differenza di potenziale generata dalla macchina acceleratrice. Si parla oggi di milioni di elettronvolt (MeV), cioè dell'energia di un elettrone accelerato da una differenza di potenziale elettrostatico di un milione di Volt, più spesso l'unità scelta è il miliardo di elettronvolt (GeV), ma nei laboratori più moderni l'unità attualmente in uso è mille volte più grande; si tratta del TeV che, per dare un'idea degli ordini di grandezza, vale circa un decimo di milionesimo di joule. Yukawa, nell'elaborazione della teoria delle interazioni nucleari, partì dalla constatazione che all'interno del nucleo atomico, come all'interno di una goccia d'acqua, i costituenti mantengono una densità fissa, indipendente dalle dimensioni del nucleo, e quindi si ha una lunghezza caratteristica che misura la distanza a cui si dispongono in media due costituenti vicini all'interno del nucleo. Interpretando questa distanza come la portata delle forze nucleari, egli dimostrò che le particelle « portatrici» del campo nucleare devono avere, nelle unità di misura quanto-relativisti-
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
che, una massa pari al reciproco della portata della forza. A conti fatti la massa in questione deve essere pari a qualche centinaio di masse elettroniche, più piccola di quella dei nucleoni che vale circa duemila masse elettroniche. L'individuazione della particella di Yukawa, detta mesone n, negli sciami di particelle prodotte dalle iuterazioni di raggi cosmici primari in emulsione fotografica, avvenuta dopo la fine della guerra, diede inizio alla fisica delle particelle elementari. Vedremo fra poco che gli sviluppi più recenti hanno di fatto rivolto l'attenzione verso le interazioni piuttosto che verso le particelle fondamentali, ma all'inizio degli anni cinquanta l'interesse per la scoperta di nuove particelle fu tale da spingere al passaggio dallo studio delle interazioni dei raggi cosmici primari allo studio delle interazioni delle particelle accelerate artificialmente in laboratori di dimensione straordinaria. Nacquero così in quell'epoca i laboratori di Brookhaven e di Berkeley negli Stati Uniti, quello del CERN a Ginevra e quello di Dubna in Russia, in cui si concentrarono investimenti via via crescenti, finalizzati al raggiungimento di energie sempre più elevate e quindi allo studio della struttura della materia su scale sempre più ridotte. La scoperta della particella di Yukawa non fu certamente la prima importante conferma delle previsioni della meccanica quanto-relativistica. Infatti già nel 1930 Dirac, formulando la teoria dell'elettrone, aveva osservato che, in base al principio di località, le equazioni del campo a spin semintero devono ammettere soluzioni con energia negativa e da questo aveva dedotto la previsione dell'esistenza dell'antimateria. Per comprendere meglio è opportuno notare che le particelle hanno in generale un momento angolare intrinseco, detto spin, che è nullo nel caso della particella di Yukawa, mentre è unitario per il fotone. Se lo spin fosse interpretabile in termini di struttura interna della particella, esso dovrebbe, secondo quanto detto all'inizio del terzo paragrafo, avere valore intero in unità fondamentali. Ma nel caso di particelle elementari è possibile che lo spin assuma valori seminteri: in particolare lo spin dell'elettrone vale rh. Tornando alla teoria di Dirac osserviamo che, in vista di un'interpretazione particellare, le soluzioni con energia negativa apparivano a prima vista un vero disastro. Infatti si sarebbe trattato di particelle che accelerando avrebbero ceduto energia. Se si ammettesse una simile possibilità per qualche costituente della materia si dovrebbe poi spiegare come mai la materia è stabile e i costituenti in questione non iniziano ad accelerare acquisendo quantità di moto sempre più grandi, cedendo alla materia circostante energie altrettanto grandi e provocando così una gigantesca esplosione. Naturalmente Dirac avrebbe potuto ipotizzare un'interpretazione particellare solo per le soluzioni con energia positiva, ma in questa mezza teoria non sarebbe stato possibile costruire stati sufficientemente localizzati. Gli stati possibili avrebbero avuto infatti una estensione minima, essi sarebbero stati in un certo senso simili a corpi rigidi violando così i principi di località e, di conseguenza, quello di causalità. Dirac si trovò dunque in un vicolo cieco: si trattava di scegliere se rinunciare alla formulazione di una teoria relativistica dell'elettrone, oppure al principio di cau299
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
salità, o altrimenti di dover fare i conti con la stabilità della materia. Tuttavia egli si rese conto che vi era una via d'uscita: se le particelle previste dalla sua teoria fossero state soggette al principio di esclusione di Pauli, cosa peraltro ben nota nel caso degli elettroni, il problema della stabilità della materia sarebbe stato superato ammettendo che nello stato che noi chiamiamo il vuoto gli stati di energia negativa siano tutti occupati. Nella teoria quanto-relativistica il concetto di vuoto corrisponde allo stato dello spazio privo di materia e si assume che tale stato sia quello con energia minima in assoluto. A prima vista l'ipotesi di Dirac poté sembrare paradossale perché, se per esempio le particelle descritte dalla sua teoria fossero cariche, come è nel caso dell'elettrone, il vuoto così concepito avrebbe la carica di infiniti elettroni, e quindi non sarebbe neutro come buon senso vorrebbe; infinita e negativa sarebbe pure la sua energia, che dovrebbe avere valore zero. Soffermandosi a riflettere appare però chiaro che il paradosso non esiste: la carica elettrica e l'energia sono grandezze additive per cui, aggiungendo in partenza una carica e un'energia opportuna, è possibile che lo stato fondamentale risulti alla fine neutro e con energia nulla. La necessità di introdurre nel calcolo delle grandezze fisiche della teoria dei campi termini correttivi, eventualmente infiniti, non è una novità della teoria di Dirac: anche l'energia del vuoto della teoria di Yukawa, per esempio, appare infinita. Infatti il campo di Yukawa corrisponde a un numero infinito di oscillatori ciascuno dei quali contribuisce all'energia del vuoto con mezzo quanto; dunque anche in questo caso l'infinito va compensato con un termine correttivo opposto. Il fatto rilevante e non banale è che tramite l'introduzione di termini di questo tipo, processo che prende il nome di rinormalizzazione, è possibile estrarre dalla teoria risultati significativi. Tornando ora all'ipotesi di Dirac, va considerata la possibilità che, agendo sul vuoto con sufficiente energia, si possa provocare la transizione di una particella dallo stato con energia negativa a un altro con energia positiva. Lo stato così ottenuto differisce dal vuoto perché contiene una particella in più con energia positiva e una in meno con energia negativa. Trascurando le interazioni fra le particelle possiamo pensare di agire indipendentemente sulla particella che occupa lo stato con energia positiva e sullo stato non occupato con energia negativa, che chiameremo buca, per esempio allontanandoli l'uno dall'altro. Si noti che spostare la buca equivale a sostituire lo stato non occupato con un altro dello stesso tipo, passando la particella occupante dallo stato finale a quello iniziale; dunque una transizione di una buca da uno stato all'altro implica la transizione di una particella con energia negativa in senso inverso. Per stabilire un'analogia estremamente elementare si consideri una fossa praticata nella sabbia e si osservi che spostarla equivale a riempirla col materiale ricavato scavandone un'altra. Da questa considerazione possiamo concludere che le buche hanno proprietà fisiche opposte a quelle delle corrispondenti particelle con energia negativa: si comportano come particelle con energia positiva con momento opposto a quello dello stato non occupato e con carica opposta a quella 300
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
delle particelle ordinarie. Per questo motivo sono dette antiparticelle. La transizione sopra descritta di una particella da uno stato con energia negativa a un altro con energia positiva viene interpretata come la trasformazione dell'energia impiegata in una coppia particella-antiparticella. È ovvio che il processo inverso appare come annichilazione di una coppia in energia. Riassumendo i risultati principali della teoria di Dirac, si è visto in primo luogo che le particelle con spin semintero non possono essere bosoni, ma devono soddisfare il principio di esclusione di Pauli. Con argomenti analoghi applicati al caso di particelle con spin intero si mostra che queste non possono essere fermioni. In generale, quindi, la teoria quanto-relativistica determina la statistica delle particelle collegandone il carattere allo spin. Inoltre la teoria di Dirac ha mostrato la necessità dell'antimateria; anche questo risultato si generalizza a qualunque teoria di campo quanto-relativistico in base a una simmetria generale detta simmetria CPT secondo cui le leggi della natura sono invarianti per la simultanea riflessione dello spazio e del tempo e la trasformazione della materia in antimateria. A posteriori appare straordinario il fatto che, poco tempo dopo la formulazione della teoria di Dirac, apparsa assai problematica agli studiosi contemporanei, tra i prodotti della radiazione cosmica siano state scoperte particelle del tutto simili agli elettroni, ma con carica opposta, che venivano a confermare l'esistenza dell'antielettrone, detto anche positrone. La scoperta dell'antiprotone e, via via, di tutte le altre componenti dell'antimateria, costituisce un episodio della grande caccia alle particelle elementari iniziata con gli anni cinquanta. La caratteristica più evidente di questa ricerca fu l'eccessivo successo. Infatti all'inizio degli anni cinquanta le particelle elementari note erano pochissime: si conoscevano il nucleone, in due stati di carica corrispondenti a protone e neutrone, l'elettrone, il fotone, la particella n in tre stati di carica, e la particella f4, detta muone. Del neutrino era stata ipotizzata, ma non ancora verificata sperimentalmente l'esistenza. Meno di un decennio dopo il loro numero stava crescendo a velocità impressionante, partendo dalla scoperta dei mesoni strani K e degli isobari del nucleone A, L e E, nonché delle risonanze n-nucleone Li, Y e così via. A questo punto fu chiaro che la stretta corrispondenza particella-campo di forze doveva in qualche modo essere rivista. Furono formulate proposte radicali, come quella, di cui l'americano G. Chew fu il principale paladino, di abbandonare la teoria dei campi, limitando lo studio ai processi d'urto e assumendo che le numerose particelle svolgano il doppio ruolo di sorgenti e di portatrici di altrettanti campi di forze. In questa situazione la dinamica sarebbe stata caratterizzata da una serie di condizioni di consistenza che avrebbero dovuto collegare i differenti ruoli; tuttavia la complessità delle relazioni apparve tale da porre in serio dubbio l'esistenza stessa di una soluzione. È peraltro significativo che la linea di pensiero di Chew non sia stata abbandonata per il suo scarso successo, ma perché superata dalla scoperta delle simmetrie interne delle particelle. Per arrivare a questo punto occorre trattare in modo 301
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
più sistematico lo sviluppo della teoria delle interazioni fondamentali a partire dall' elettrodinamica quantistica. V
·
LA
TEORIA
DELLE
INTERAZIONI
FONDAMENTALI
Attorno alla metà degli anni trenta erano già chiare le caratteristiche generali delle quattro interazioni fondamentali. Infatti, oltre alle già citate interazioni elettromagnetiche, la cui teoria risale a Maxwell, e nucleari forti, studiate da Yukawa, era ben nota la teoria della gravitazione, che, enunciata inizialmente da Newton, era stata formulata in ambito relativistico da Einstein con la teoria della relatività generale. La quarta interazione fondamentale era identificata con quella responsabile della radioattività fl, dei nuclei ed era stata inquadrata da Fermi nella teoria dei campi di Dirac. Per comprendere le linee principali dello sviluppo della teoria delle interazioni fondamentali è necessario considerare brevemente le caratteristiche essenziali di ciascuna interazione. La prima a essere costruita nell'ambito quanto-relativistico fu l'interazione elettromagnetica. L'intensità delle interazioni elettromagnetiche fra particelle elementari è determinata dalla loro carica, come appare, per esempio dalla legge di forza di Coulomb. Secondo questa legge l'energia di interazione fra due cariche a riposo è inversamente proporzionale alla loro distanza ed è proporzionale al prodotto delle cariche. Dato che, come si è verificato, nel sistema delle unità fondamentali quanto-relativistiche l'energia e il reciproco di una distanza sono grandezze omogenee, il prodotto di due cariche, e quindi ciascuna di esse, è un numero puro, cioè privo di dimensioni. Ciò vuol dire che la carica dell'elettrone assume lo stesso valore qualunque sia il valore dell'energia scelta come unità base del sistema fondamentale: il suo quadrato è circa pari al reciproco di 137. Un'altra proprietà fondamentale dell'elettrodinamica quantistica consiste nel disaccoppiamento degli stati di bassa energia da quelli di alta energia. Va notato che, data la piccolezza della carica elettronica, è possibile considerare l'interazione elettromagnetica come debole, e procedere nello sviluppo dei calcoli tenendo conto solo degli ordini più bassi nell'interazione stessa, cioè utilizzando la teoria delle perturbazioni. Questa teoria è costruita partendo dagli stati di qualunque numero di particelle pensate come libere e studiando il modo in cui l'interazione accoppia tali stati fra loro. Dato che gli stati di particelle di grande massa e di grande energia, essendo debolmente accoppiati a quelli di piccola energia, li perturbano in modo trascurabile, è possibile non prendere in considerazione nell'analisi delle proprietà dell'elettrone l'esistenza di numerose particelle più pesanti, come per esempio i nucleoni. Sulla base di queste considerazioni si sviluppò fra il 1945 e il 1955 la costruzione dell'elettrodinamica quantistica a opera degli americani R.P. Feynman (1918-88), J. Schwinger (1918-95) e J. Dyson, del giapponese S.-L Tomonaga (1906-79) e altri; 302
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
essa fu la prima teoria quantistica dei campi in interazione, seppure perturbativa. Il successo fenomenologico dell'elettrodinamica quantistica, normalmente indicata con l'acronimo QED, fu assolutamente straordinario; per illustrarlo ci limiteremo a considerare brevemente il calcolo del momento magnetico dell'elettrone. L'elettrone, come tutte le particelle che interagiscono col campo elettromagnetico e hanno uno spin, genera un debole campo magnetico la cui intensità è parametrizzata dal suo momento magnetico. Questo è un vettore orientato parallelamente al momento angolare e a esso proporzionale tramite il rapporto giromagnetica; a sua volta il rapporto giromagnetica è comunemente misurato in funzione del rapporto fra la carica e la massa della particella ed è indicato con la lettera g. Secondo la teoria di Dirac, g vale 2 nell'approssimazione in cui si consideri il campo elettromagnetico come fisso, trascurandone le fluttuazioni quantistiche rese inevitabili dal principio d'indeterminazione. La QED prevede correzioni al valore 2 dovute appunto alle fluttuazioni quantistiche del campo. Il primo a calcolare queste correzioni fu Schwinger, che si limitò a considerare i termini correttivi del primo ordine nel quadrato della carica dell'elettrone. Oggi sono note le correzioni fino al quarto ordine e la previsione teorica arriva all'undicesima cifra decimale; misure estremamente accurate hanno permesso di confermare esattamente questa previsione. Si noti che teorie capaci di fornire previsioni con la precisione di dieci cifre significative sono estremamente rare sia in ambito classico, sia in ambito quantistico. Del tutto opposto rispetto allo sviluppo della QED è quello della teoria della gravitazione. È stata già discussa in quest'opera la costruzione dovuta a Einstein di una teoria relativistica della gravitazione che è sfociata nella formulazione della relatività generale. Ricordiamo soltanto che in essa lo spazio-tempo assume un ruolo dinamico e che al campo gravitazionale viene sostituita la metrica, l'entità matematica che permette di definire la distanza spazio-temporale tra due eventi. Questa sostituzione è basata sul principio di equivalenza secondo cui gli effetti gravitazionali sono riconducibili a un cambiamento della geometria: il moto di una particella in un campo gravitazionale dato è equivalente a quello in assenza di campo, ma in uno spazio-tempo curvo; la legge di Newton va dunque sostituita da un'equazione che specifichi il valore della curvatura. A questo punto, per inquadrare la teoria della gravitazione nello schema della fisica quanto-relativistica occorre fare riferimento molto semplicemente alla legge di gravitazione universale di Newton. Secondo questa legge, peraltro confermata dalla relatività generale nel caso di corpi lontani, l'energia d'interazione fra due corpi è proporzionale al prodotto delle loro masse e inversamente proporzionale alla loro distanza. La costante di proporzionalità G è detta costante di Newton. Il caso parrebbe del tutto analogo a quello elettromagnetico perché in entrambe le situazioni l'energia è proporzionale al reciproco della distanza; tuttavia, nel caso della gravitazione, il quadrato delle cariche è sostituito dal prodotto di G per ciascuna delle due masse; essendo questo prodotto un numero puro, si ha che G è dimensionai303
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
mente il reciproco di una massa, o di un'energia, al quadrato. Questo significa che gli effetti quantistici previsti nella teoria della gravitazione al livello dei processi elementari hanno intensità proporzionale al quadrato dell'energia del processo e risulteranno apprezzabili solo quando sarà possibile raggiungere energie non troppo lontane dal reciproco della radice quadrata di G, che vale 10 16 TeV e viene detta energia di Planck. L'energia massima oggi raggiungibile nei processi prodotti in laboratorio è 2 TeV, la quantizzazione della gravitazione quindi non si pone come problema pratico; si pone invece come problema concettuale. Veniamo ora all'interazione responsabile della radioattività fi dei nuclei, che storicamente ha preso il nome di interazione debole. Un inquadramento teorico di questa interazione era stato proposto da Fermi nell'ambito della teoria dei campi di Dirac. Il problema affrontato da Fermi fu quello di valutare la probabilità di un processo fi che, dal punto di vista elementare, consiste nella trasmutazione di un neutrone in un protone con simultanea emissione di un elettrone e di un antineutrino. In base alla teoria di Dirac, la creazione di una coppia elettrone-antineutrino equivale alla trasformazione in elettrone di un neutrino presente nel vuoto in uno stato con energia negativa. Secondo la meccanica quantistica la probabilità per unità di tempo di un processo elementare è determinata in funzione dell'energia dell'interazione responsabile. Fermi suggerì che la densità di tale energia potesse essere scritta come proporzionale, tramite una costante che indicheremo con G F, al prodotto di due densità di corrente (in un certo senso analoghe alla densità della corrente elettrica): la prima responsabile della trasmutazione del neutrone in protone e la seconda associata a elettrone e neutrino. Questo tipo di interazione mima l'interazione elettromagnetica, con la differenza che, mentre nel caso elettromagnetico le densità di carica sono accoppiate in ragione del reciproco della loro distanza, nel caso della teoria di Fermi esse si accoppiano nello stesso punto; questo implica automaticamente che la costante di proporzionalità GF non sia un numero puro, ma sia dimensionalmente omogenea al reciproco di una massa al quadrato, esattamente come la costante di Newton. Quindi, anche nel caso della teoria di Fermi, l'intensità dell'interazione cresce col quadrato dell'energia, ma, a differenza del caso gravitazionale, essa raggiunge un valore rilevante a circa Ioo GeV, cioè a un'energia che oggi è facilmente accessibile in laboratorio. Dato che questa intensità non può crescere in modo indefinito, i teorici si sono chiesti come debba essere riformulata la teoria alle alte energie. La risposta naturale a questa domanda è che l'accoppiamento delle due densità non sia veramente nello stesso punto, ma piuttosto a distanza così piccola da sembrare nulla alle basse energie coinvolte nella radioattività nucleare. Si può dunque assumere che, come nel caso elettromagnetico, le densità di corrente si accoppino tramite un campo tetravettoriale, ma che, nel caso dell'interazione debole, questo campo vettoriale sia associato a particelle massive, i bosoni intermedi, con una massa dell'ordine di 100 masse protoniche. Questi bosoni devono essere carichi perché il neutrone diventa
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
protone scambiando un bosone col neutrino che si trasforma in elettrone. Il campo deve essere tetravettoriale perché la teoria sia invariante per trasformazioni relativistiche dato che, come si è detto, esso si accoppia a una densità di tetracorrente analoga a quella elettrica. Una densità di tetracorrente è costituita da 4 densità, la prima delle quali si identifica, nel caso elettrico, con la densità di carica, mentre le altre 3 corrispondono alle componenti della densità di corrente. Queste 4 densità si trasformano, al passaggio da un sistema di riferimento a un altro, proprio come le componenti di un tetravettore, e il campo a esse accoppiato (o, se si vuole, da esse generato) deve avere lo stesso numero di componenti che debbono trasformarsi nello stesso modo. Fermi e i suoi contemporanei non riuscirono a formulare la teoria quantistica di un campo tetravettoriale massivo e carico; nonostante questa difficoltà, lo studio delle interazioQi deboli restò uno dei settori più vivi e interessanti della fisica delle interazioni fondamentali. In particolare, le ricerche sperimentali sulla radioattività /5, pur confermando le previsioni della teoria di Fermi, completata dalla variante introdotta da G. Gamow (1904-68) e E. Teller (n. 1908), misero in evidenza nuove e inattese caratteristiche del processo, fra cui, in primo luogo, la violazione della simmetria di parità. Come si è visto la teoria dei campi quanto-relativistici è necessariamente invariante per riflessioni ePT, cioè, simultaneamente dello spazio, del tempo e della materia in antimateria. Le interazioni elettromagnetiche e quelle nucleari appaiono invarianti sotto le tre riflessioni indipendenti; non così le interazioni deboli. Nel 1957 la scienziata cino-americana C.S. Wu, studiando la distribuzione angolare dei raggi /5 emessi da un isotopo del cobalto immerso in un campo magnetico, i cui nuclei erano quindi parzialmente orientati nella direzione del campo, trovò che i raggi tendevano a essere prodotti preferibilmente nella direzione del campo stesso. Questo risultato contrasta con l'invarianza della fisica per riflessione dello spazio, cioè con la simmetria di parità. Immaginiamo infatti di osservare l'esperimento riflesso da uno specchio e supponiamo che nella realtà il campo magnetico sia diretto verso l'alto. Visto attraverso lo specchio il campo apparirà rivolto verso il basso per la stessa ragione per cui la mano destra vista allo specchio appare una mano sinistra. L'immagine riflessa dei raggi /5 emessi risulterà diretta preferibilmente verso l'alto come nella realtà; quindi, guardando nello specchio, vedremo i raggi preferire la direzione opposta al campo o allo spio nucleare che dal campo è orientato. Si può concludere che le interazioni deboli osservate in uno spazio riflesso contrastano con quelle nello spazio reale e quindi violano la parità. I risultati dell'esperimento della Wu e di altri esperimenti, che consentirono di completare il quadro fenomenologico, furono inquadrati nella teoria di Fermi da altri due studiosi cino-americani: T.-D. Lee e C.N. Yang. In sostanza essi mostrarono che le particelle fondamentali partecipano a un decadimento /5 solo se hanno lo spio diretto antiparallelamente all'impulso: in particolare, il neutrino (che nel frattempo era stato rivelato
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
e quindi era passato dallo stato di ipotesi a quello reale) esiste solo in questo stato di spin, dato che è prodotto solo tramite l'interazione debole. Chiunque abbia uno specchio e una trottola può constatare, nell'immagine riflessa, che lo spin appare rivolto nella direzione opposta. Si è insistito molto sulla violazione della parità, per mettere in evidenza il ruolo delle proprietà di simmetria nello studio delle interazioni fondamentali; dopo la scoperta della Wu qualunque processo che distingua l' orientazione destrorsa da quella sinistrorsa va ricondotto alle interazioni deboli. È noto che la materia biologica ha questa proprietà, ciò però non vuoi dire che la vita violi la parità a causa delle interazioni deboli, si deve invece pensare che questa violazione sia spontanea, cioè determinata da una scelta iniziale fra due equivalenti. Nel 1964 gli americani J.H. Christenson, J. Cronin, V. Fitch e R. Turlay scoprirono che le interazioni deboli sono irreversibili al livello fondamentale, in quanto violano, seppure in modo meno rilevante della parità, anche la simmetria per inversioni del tempo. In effetti, studiando il decadimento del mesone K neutro, essi mostrarono che nel suddetto decadimento viene violata l'invarianza per la riflessione combinata dello spazio e della materia in antimateria; da questo segue la irreversibilità del tempo per il teorema CPT. Nei processi macroscopici la reversibilità appare chiaramente violata, ma anche questa violazione non va imputata alle interazioni deboli. Possiamo ora tornare al problema della formulazione della teoria delle interazioni deboli alle alte energie; si è visto che le indicazioni favorivano l'ipotesi che le interazioni fossero mediate da un campo tetravettoriale massivo e carico e che questo portò alla proposta dell'esistenza dei cosiddetti bosoni intermedi. Per procedere nell'analisi occorre prima di tutto chiarire le difficoltà insite nella formulazione di tale teoria. È stata più volte richiamata l'analogia fra il campo intermedio debole e quello elettromagnetico; in particolare entrambi i campi sono stati caratterizzati come tetravettoriali, cioè con quattro componenti. Tuttavia già nel caso elettromagnetico c'è una difficoltà: dato che il campo ha quattro componenti, il fotone dovrebbe esistere in quattro stati distinti, ciascuno dei quali dovrebbe essere associato a una diversa componente del campo; invece il fotone assume solo due possibili stati di polarizzazione indipendenti, gli altri due mancano all'appello e li chiameremo non fisici. La spiegazione di questo paradosso sta nel fatto che le componenti della densità di corrente che genera il campo non sono indipendenti, ma sono tra loro legate dal principio di conservazione della carica: la corrente non può fluire fuori da un dato volume senza che la carica all'interno cambi. Inoltre, e anche a causa di questo principio, il campo vettoriale elettromagnetico, che nel linguaggio tecnico si chiama potenziale vettore, non è totalmente determinato dalle sue leggi di evoluzione, ma ammette una componente arbitraria che può essere vincolata a piacere. Questi due fatti (la conservazione della carica e l'indeterminazione del campo tetra-
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
vettoriale), combinati insieme, riducono da quattro a due gli stati del fotone; essi possono essere ricondotti a un principio di simmetria fondamentale che con una terminologia assurda viene chiamato il principio di invarianza di gauge. In effetti in inglese il termine « gauge » significa campione di lunghezza o unità di misura, e la scelta di questo termine nasce da una malintesa identificazione del principio con una proprietà di invarianza rispetto al cambiamento della scala delle unità fondamentali. In realtà il concetto di invarianza di gauge può essere inteso com~ una generalizzazione di quello di simmetria interna, nato dallo studio delle for~e nucleari, e in particolare dall'osservazione che tali forze non dipendono dallo stato di carica delle particelle coinvolte, siano esse nucleoni, che esistono in due stati, o mesoni n, che possono avere tre cariche diverse. Per descrivere matematicamente questa proprietà fu proposto di considerare i diversi stati di carica di una particella come componenti della stessa entità, il campo del nucleone o del mesone, pensata come immersa in uno spazio del tutto distinto da quello fisico detto isotopico o interno. Partendo da questo concetto fu facile proporre un'estensione dell'indipendenza delle forze rispetto alla carica delle particelle ipotizzando l'invarianza della dinamica per rotazioni nello spazio isotopico. Questa ipotesi automaticamente implica la conservazione di un momento angolare, o meglio spin isotopico, in completa analogia con quanto si è visto nel terzo paragrafo; cioè che l'invarianza delle forze per rotazioni intorno a un punto fisso implica la conservazione del momento angolare del sistema rispetto a quel punto. Naturalmente il concetto di trasformazione in uno spazio interno può essere inteso in senso più generale rispetto alla teoria delle forze nucleari. Si parla dunque in teoria dei campi di trasformazioni di simmetria pensate come rotazioni dei campi, visti come entità multidimensionali, intorno a particolari assi di uno spazio interno. Un risultato di grande importanza della teoria è l'associazione di una generalizzazione del concetto di carica a quello di simmetria interna: infatti si dimostra che a ogni asse indipendente di simmetria rotatoria è associata una diversa grandezza conservata, che viene appunto chiamata carica generalizzata. Si vedrà in seguito quanto l'idea di simmetria interna abbia influenzato la teoria delle interazioni nucleari. La trasformazione di gauge è concepita come una trasformazione nello spazio interno corrispondente ad angoli, ed eventualmente anche ad assi di rotazione variabili in modo arbitrario da punto a punto nello spazio-tempo. Con l'invarianza per trasformazioni di gauge si assume dunque che le equazioni dinamiche non siano alterate se si esegue per ogni punto dello spazio-tempo reale una diversa rotazione nello spazio interno. A prima vista si direbbe che le equazioni dinamiche, che tramite la loro struttura differenziale connettono le componenti del campo in punti diversi, non possano essere invarianti per trasformazioni di gauge, dato che queste ultime agiscono indipendentemente su punti diversi. L'indipendenza da punto a punto è però compensata introducendo campi vettoriali e assumendo che essi siano
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
influenzati dalle trasformazioni in punti vicini; una teoria, per essere invariante per trasformazioni di gauge, deve coinvolgere campi tetravettoriali. In conclusione abbiamo visto che, in una teoria dei campi tetravettoriali, l'eliminazione delle particelle associate alle componenti non fisiche del campo richiede l'invarianza di gauge, mentre una teoria invariante di gauge deve contenere campi tetravettoriali. La struttura generale di una teoria invariante di gauge fu studiata da C.N. Yang e R.L. Milis nel 1954. Essi dimostrarono che le particelle associate al campo tetravettoriale in tale teoria debbono avere massa nulla, e questo risultato bloccò la ricerca teorica nel campo delle interazioni deboli alle alte energie per più di dieci anni. Infatti per costruire una teoria di campi tetravettoriali carichi e massivi fu necessario attendere alcuni importanti progressi; il primo dei quali si deve all'inglese]. Goldstone, che introdusse nella teoria dei campi il concetto di rottura spontanea di una simmetria. Si è già parlato di rottura spontanea nel caso di una simmetria violata dalle condizioni iniziali; in teoria dei campi le condizioni iniziali vanno sostituite con lo stato di energia minima, cioè con lo stato di vuoto: si ha dunque rottura spontanea se il vuoto corrisponde a uno fra più, eventualmente infiniti, stati distinti collegati dalla simmetria considerata. Un modello particolarmente semplice di una situazione dinamica che implica la rottura spontanea di una simmetria può essere prodotto in ambiente balneare; poniamo di costruire nella sabbia di una spiaggia perfettamente orizzontale una montagnola circondata da un solco, mantenendo la nostra costruzione rigorosamente simmetrica per rotazioni intorno al centro della montagnola. Completato il nostro lavoro, aggiungiamo una biglia, ottenendo così un sistema dinamico le cui equazioni del moto sono invarianti per le rotazioni menzionate. Se ora cerchiamo lo stato di energia minima del nostro sistema troviamo che esso si identifica con la posizione di riposo della biglia in qualunque punto in fondo al solco. Vi sono allora infiniti stati con energia minima che si ottengono l'uno dall'altro spostando la biglia lungo il solco; quindi nessuno degli stati considerati, e assimilati schematicamente al vuoto di una teoria di campo, è lasciato invariante dalle trasformazioni di simmetria del sistema. La biglia è libera, trascurando l'attrito, di ruotare lungo il fondo del solco, mentre, se viene spinta radialmente, sente una forza di richiamo verso il fondo; allo stesso modo, in una teoria dei campi con una simmetria rotazionale rotta spontaneamente appaiono - secondo quanto fu dimostrato da Goldstone - particelle prive di massa in numero corrispondente agli assi di tutte le possibili rotazioni indipendenti che trasformano lo stato di energia minima in un altro con la stessa energia. Fu lo scozzese P.W. Higgs a compiere il secondo passo fondamentale, dimostrando nel 1964 che, se si rompe spontaneamente una simmetria di gauge, le particelle di Goldstone non appaiono, ma che, per ogni simmetria rotatoria rotta, un campo vettoriale diventa massivo. Si trattò evidentemente di un passo cruciale verso la costruzione di una teoria delle interazioni deboli alle alte energie. L'ultimo aspetto importante della nuova teoria fu dedotto dalla considerazione che i bosoni inter308
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
medi essendo elettricamente carichi, si accoppiano al campo elettromagnetico. La teoria doveva pertanto coinvolgere fra i campi vettoriali anche quello elettromagnetico, e ciò equivaleva a un allargamento della simmetria di gauge e, automaticamente, all'unificazione delle interazioni deboli ed elettromagnetiche. La prima versione della formulazione finale della teoria elettrodebole dovuta agli americani S. Weinberg (n. 1933) e S. Glashow (n. 1932) e al pakistano A. Salam (1926-95) fu proposta da Weinberg nel 1967. Essa ammette una simmetria di gauge con quattro assi indipendenti di rotazione, ma tre delle quattro simmetrie di rotazione appaiono rotte spontaneamente; si hanno dunque quattro campi tetravettoriali di cui uno solo è privo di massa e va identificato col campo elettromagnetico. Degli altri tre campi due sono carichi e corrispondono ai bosoni intermedi della teoria di Fermi, mentre il quarto campo porta una nuova interazione di intensità paragonabile a quella debole. L'esistenza di quest'interazione fu confermata sperimentalmente nel laboratorio europeo del CERN di Ginevra e nel Fermi National Laboratory di Batavia (nei pressi di Chicago) in America nel 1973, mentre i tre bosoni intermedi furono rilevati per la prima volta al CERN nel 1983 dal gruppo diretto dall'italiano C. Rubbia (n. 1934). Oggi non è nota alcuna discrepanza apprezzabile fra le previsioni della teoria elettrodebole e i risultati sperimentali. È giunto ora il momento di tornare a parlare delle interazioni forti, trattate nel paragrafo precedente descrivendo l'ipotesi di Yukawa, la scoperta del mesone n e la ricerca delle particelle elementari. La ricerca delle particelle elementari fu eccessivamente fruttuosa e pose subito il problema della classificazione dei reperti. Considerando le particelle prodotte tramite le interazioni forti e che in tempi più recenti hanno assunto il nome di adroni, va ricordato che ess.e furono distinte, oltre che per la massa e lo spin, in funzione della loro carica elettrica. Inoltre, constatata l'invarianza delle interazioni per rotazioni nello spazio isotopico, fu assegnato alle particelle uno spin isotopico. Dato che gli adroni interagiscono prevalentemente in modo forte, fu possibile assegnare loro anche la parità. Un'altra caratteristica di cui presto venne colta l'importanza fu il numero barionico. Divenne infatti chiaro che le particelle potevano essere divise in due categorie: quelle che spontaneamente si disintegrano in particelle più leggere dei nucleoni e quelle che invece generano necessariamente un protone. Teniamo presente che, seppur debolmente, il neutrone non legato in un nucleo decade e genera un protone: assegnando numero barionico zero alle particelle della prima categoria e uno a quelle della seconda, nonché valori opposti alle antiparticelle, si vide che la grandezza così definita è rigorosamente conservata da tutte le interazioni e che tale conservazione garantisce la stabilità della materia. È vero che le più recenti teorie di grande unificazione permettono la violazione del numero barionico e che questa violazione, come verrà discusso nell'ultimo paragrafo, ha un ruolo essenziale in cosmologia particellare. Per il momento però non possiamo che prendere per buona la conservazione del numero barionico e adottare il termine di barioni per le particelle con numero barionico unitario e
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
quello di mesoni per le particelle con numero barionico nullo. Nel corposo manualetto che ogni anno aggiorna la lista delle particelle e delle loro proprietà appare dunque fra i barioni la ..1, scoperta da Fermi e Anderson nel 1949, che ha spin e spin isotopico 3!2, energia di riposo pari a 1232 MeV e la stessa parità del protone, mentre è un mesone la p che ha spine spin isotopico l, massa 770 MeV/c 2 e parità negativa. Si è già notato che la zoologia particellare non si esaurisce in questa classificazione; nel 1952 furono infatti scoperte particelle che portano un altro numero quantico, simile a quello barionico, ma violato dalle interazioni deboli, chiamato stranezza: si trattava dei mesoni K e dei barioni A e I. In seguito la lista delle particelle strane si arricchì tanto rapidamente quanto quella delle particelle non strane e fu ben presto chiaro che gli adroni si raccolgono in multipletti, a gruppi di otto o dieci elementi con le masse più o meno eguali, comprendenti membri con diversa stranezza e spin isotopico. Ciò suggerì all'americano M. Gell-Mann (n. 1929) e all'israeliano Y. Ne'eman l'ipotesi che l'interazione forte ammettesse una simmetria, più grande di quella isotopica, con otto assi indipendenti di rotazione: tre di questi assi corrispondono alle rotazioni isotopiche e uno alla stranezza, o meglio all'ipercarica, che è definita come somma di stranezza e numero barionico. Le differenze di massa all'interno dei singoli multipletti mostrano che la simmetria ipotizzata viene rispettata in modo molto approssimativo. Ne restano tuttavia segni evidenti se si confrontano le proprietà delle particelle negli stessi multipletti. È particolarmente significativo il nome che fu dato alla nuova invarianza, cioè quello di simmetria unitaria SU(3 ). Matematicamente questo termine generalizza il concetto di rotazione a uno spazio a tre dimensioni complesse, in cui cioè i vettori hanno tre componenti che sono numeri complessi. Come si è visto nel secondo paragrafo gli elementi dello spazio in questione possono essere identificati con gli enti matematici rappresentativi di stati quantistici. In questo caso la matematica fornisce una possibile interpretazione del significato della simmetria. Gli adroni sono pensati come sistemi composti da costituenti che esistono in tre stati possibili; le interazioni sono lasciate invarianti dalle rotazioni, o meglio, dalle trasformazioni unitarie, nello spazio degli stati; il fatto che queste trasformazioni possiedano otto assi indipendenti di rotazione è una conseguenza puramente matematica del numero degli stati indipendenti, e questi sono tre perché gli adroni possiedono in modo variabile i tre numeri quantici: numero barionico, carica e ipercarica. Questa considerazione, combinata con il numero rilevante di multipletti con diverso spin e parità osservati nel settore barionico e in quello mesonico, fece subito pensare agli adroni come a livelli eccitati di un sistema quantistico composto (come un atomo o un nucleo) e suggerì a Gell-Mann e, indipendentemente, a G. Zweig, l'introduzione di tre nuovi campi fermionici fondamentali, corrispondenti a ipotetici costituenti degli adroni, con spin 1!2 e carica, numero barionico e ipercarica frazionari. 310
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
Gell-Mann chiamò questi costituenti, mai osservati prima, quark, volendo probabilmente significare con tale termine, tratto dal Finnegan's Wake di James Joyce, una certa tendenza a essere sfuggevoli come particelle. L'ipotesi dei quark pose subito il problema di una verifica diretta. I principali laboratori idearono apparati sperimentali che permettessero di «fotografarli» all'interno degli adroni, applicando un metodo del tutto analogo a quello usato per esaminare la struttura microscopica dei cristalli: il bombardamento con particelle interagenti debolmente con l'adrone, per non devastarlo completamente, e con energia molto elevata per poter disporre di piccole lunghezze d'onda di de Broglie e, quindi, di un alto potere risolutivo. Mentre per i cristalli si usano prevalentemente i raggi X, per gli adroni furono usati elettroni, muoni e neutrini: i risultati sperimentali confermarono l'esistenza di costituenti puntiformi all'interno degli adroni, che invece appaiono come oggetti estesi. Questi costituenti, per cui si usa a volte anche il termine di partoni, apparvero confinati in un piccolo volume dentro l'adrone, ma scarsamente interagenti fra loro. Questo risultato fu assai sorprendente dato che i quark sono considerati portatori dell'interazione forte; ma per qualche strana ragione quest'interazione appare modesta fra particelle poste a brevi distanze. Un altro problema, del tutto indipendente, fu quello di trovare la particella quark libera, che dovrebbe esistere in base alla dualità campo-particella. Avendo carica frazionaria si ritenne che essa avrebbe dovuto essere facilmente individuabile misurando la ionizzazione generata dai prodotti delle interazioni nucleari. Altri sperimentatori, fra cui in primo luogo l'italiano G. Morpurgo, si proposero di cercare corpuscoli di dimensioni macroscopiche, come goccioline di olio o granelli di polveri, recanti una carica frazionaria che fosse un indizio evidente della presenza di un quark slegato. Il risultato di questi tentativi fu comunque negativo e confermò l'intuizione di Gell-Mann, cioè che i quark dovessero restare, per qualche misteriosa ragione, confinati dentro gli adroni. Ma le misteriose particolarità dei quark non si esauriscono nella debolezza della loro interazione a piccole distanze e nel confinamento. Il confronto fra teoria ed esperimento infatti mise in evidenza che, per ciascuno dei tre costituenti caratterizzati da tre combinazioni diverse di carica e ipercarica e indicati rispettivamente con le lettere u, d e s, era necessario ipotizzare l'esistenza di tre stati indipendenti, che furono contrassegnati con tre valori di una nuova proprietà immaginata come un colore; per esempio il quark u, che ammette due stati di spin, può altresì avere colore bianco, rosso o azzurro (naturalmente non si tratta affatto dei colori dell'iride). Per avere un'idea degli argomenti che portarono all'introduzione dell'ipotesi del colore va ricordato che gli stati dei barioni descritti in termini di quark appaiono violare il principio di esclusione di Pauli. Per esempio, quello della L1 con carica massima, cioè la .,1++, è composto da tre quark u con spin parallelo, cioè nello stesso stato quantico: dato che i quark hanno spin semintero, bisogna ammettere che ciascuno stato dei quark u abbia un colore diverso. Un'altra evidenza dell'esistenza del 3II
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e dei cosmo
colore si ebbe esaminando l'intensità di produzione di materia e antimateria adronica nell'annichilazione di elettrone e positrone alle alte energie: l'intensità rilevata risultò essere esattamente il triplo di quella prevista in assenza del colore. L' ipotesi dell'esistenza dei quark, subcostituenti (ma non particelle) degli adroni, pensati a loro volta come particelle non elementari costituisce una profonda rivoluzione nella teoria delle interazioni forti. Si è anche visto che la conseguente teoria permette di rendere correttamente conto della struttura della materia adronica e, almeno qualitativamente, del ricco spettro particellare, anche se richiede tre ipotesi ad hoc: la piccolezza dell'interazione a brevi distanze, il confmamento e il colore. Per pura coincidenza, nei primi anni settanta lo studio della teoria dei campi di gauge permise di ricondurre le tre ipotesi a un unico quadro teorico coerente; per descrivere questo quadro occorre un'altra breve digressione sulla teoria quantistica dei campi. Nell'esame delle interazioni fondamentali, abbiamo distinto l'elettrodinamica, la cui intensità è determinata dalla carica elettrica elementare che è un numero puro e quindi non dipende dalla scala dell'energia di riferimento, dalla teoria debole e da quella gravitazionale per cui, per ragioni puramente dimensionali, l'intensità della forza cresce col quadrato dell'energia. Affinando i calcoli si vede però che anche l'intensità delle forze elettromagnetiche (diremo meglio elettrodeboli) cresce, seppur molto lentamente, con l'energia, così lentamente che l'energia per cui ci si attendono interazioni troppo intense e quindi modificazioni radicali della teoria è poco distante da quella di Planck. Una crescita lenta dell'intensità si ha anche nella teoria di Yukawa, mentre nel caso di una teoria di campi tetravettoriali in mutua interazione l'intensità delle forze decresce lentamente al crescere dell'energia o al diminuire della distanza. Questo risultato fu ottenuto dagli americani D.}. Gross e F. Wilczek nel 1973. La ragione di queste lente variazioni delle intensità delle forze al variare della distanza d'interazione va cercata nelle fluttuazioni quantistiche dei vari campi che producono di volta in volta effetti di schermaggio o di amplificazione dell'interazione stessa. Calcoli più complessi indicano a basse energie o a grandi distanze tendenze opposte rispetto alle alte energie: così nel caso dei campi tetravettoriali in mutua interazione, le forze appaiono crescere indefinitamente all'allontanarsi dei corpi interagenti, mentre, nel caso elettrodebole, la forza si annulla nello stesso limite. Alla luce di questi risultati fu evidente che assumendo le interazioni fra i quark come invarianti per trasformazioni di gauge corrispondenti a « rotazioni » nello spazio del colore, si spiega automaticamente la debole interazione a piccole distanze e il confinamento. Fu anche possibile calcolare con buona approssimazione gli effetti dovuti all'interazione residua fra quark vicini sulla struttura della materia adronica; nacque così la teoria moderna delle interazioni forti che per analogia con l'elettrodinamica viene chiamata cromodinamica quantistica e indicata con l'acronimo QCD. Combinando insieme teoria elettrodebole e QCD si ottiene il cosiddetto modello standard che ha dimostrato di rendere sostanzialmente conto della fisica delle iuterazioni fondamentali fino a energie d'urto dell'ordine di qualche centinaio di GeV. 312
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
ll modello è costruito tenendo conto di tutte le scoperte più recenti. In particolare i quark non sono più tre ma sei; sono stati infatti scoperti due nuovi quark simili al quark u, ma molto più pesanti. Si tratta del quark c con una massa pari a circa una volta e mezza quella del protone e del quark t, che ha una massa circa centonovanta volte più grande di quella del protone; è anche stato scoperto il quark b, simile al d e al s ma con una massa di circa cinque masse protoniche. In queste elencazioni abbiamo sottinteso l'esistenza del colore perché, in base alla QCD, i quark che interagiscono fortemente devono necessariamente avere tre stati di colore. C'è poi la famiglia dei !eptani, termine storicamente riferito alle particelle più leggere ma, più recentemente, usato per indicare le particelle non tetravettoriali che non hanno interazioni forti, e che quindi non sono adroni. Al momento della nascita del modello questa famiglia raggruppava elettrone, muone e i due corrispondenti neutrini. Essa comprende oggi sei membri; si sono infatti aggiunti ai precedenti una terza particella carica, il r, simile all'elettrone e al Jt, ma sedici volte più pesante del Jt che a sua volta lo è duecento volte più dell'elettrone, e un altro neutrino. Nell'elenco appena completato appare con insistenza il numero tre; tre infatti sono i quark simili all'u, altrettanti quelli simili al d, tre sono i leptoni carichi e tre i neutrini. In effetti esiste una condizione di consistenza dinamica, messa in evidenza da Glashow in collaborazione con il greco J. Iliopoulos e l'italiano L. Maiani, che per ogni quark del tipo u richiede un altro quark del tipo d, nonché un leptone carico e un neutrino. Quark e leptoni si raggruppano dunque in differenti «generazioni», tre sole delle quali sono state finora scoperte. Gli esperimenti recentemente effettuati al CERN indicano che a meno di generazioni contenenti neutrini con masse superiori a quaranta masse protoniche, non ne esistono altre oltre a quelle già osservate. L'esistenza di tre generazioni fornisce un'interpretazione plausibile della violazione della reversibilità presente nelle interazioni deboli. In generale, è possibile infatti mostrare che si ha violazione della reversibilità al livello fondamentale se almeno una delle costanti che parametrizzano l'accoppiamento delle densità di corrente debole ai bosoni intermedi è un numero complesso. Le correnti deboli hanno una struttura che si complica al crescere del numero delle generazioni perché, con un meccanismo proposto per la prima volta dall'italiano N. Cabibbo e poi generalizzato dai giapponesi M. Kobayashi e K. Maskawa, l'interazione ./5 al livello dei quark non prevede la trasmutazione di un quark di tipo d in uno di tipo u nell' ambito della stessa generazione: si ha invece un mescolamento delle differenti generazioni fra loro, e le costanti sopra considerate ne definiscono l'entità. La capacità di questo modello di spiegare l'irreversibilità osservata nelle interazioni deboli e le particolarità dinamiche della rottura spontanea della simmetria elettrodebole saranno gli argomenti su cui si concentreranno le ricerche sperimentali nel prossimo decennio. Per quel che riguarda il secondo problema, va notato che esistono seri dubbi circa la validità del meccanismo proposto da Higgs nella 313
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
sua forma più semplice. Esso infatti prevede l'esistenza di una particella scalare massiva e neutra che, nel nostro modello balneare in cui la dinamica dei campi veniva ridotta a quella di una biglia in un solco scavato nella sabbia, corrisponde al quanto di energia delle oscillazioni della biglia che sono trasversali rispetto al solco. La massa della particella, detta di Higgs, non è fissata a priori dal modello, ma argomenti di consistenza dinamica escludono che possa essere troppo leggera o troppo pesante. Di fatto buona parte dell'intervallo di massa permesso è stata esplorata, ma la particella non è stata trovata; ciò non nuoce al modello standard dato che, alle energie attualmente raggiungibili, esso non dipende in modo critico dal particolare meccanismo di rottura di simmetria. Ci si aspetta tuttavia che l'aumento di un fattore dieci delle energie disponibili previste per il prossimo decennio porrà il problema in primo piano. Potrà allora essere verificato un meccanismo alternativo, in cui gli effetti dinamici di polarizzazione indotti alle alte energie da una particella di Higgs troppo pesante vengono moderati dalla presenza di nuove particelle in base a uno schema noto come supersimmetria. È comunque acquisita la validità del modello standard nelle sue linee generali data la quantità e la qualità dei riscontri fenomenologici accumulati negli ultimi tem!_)i. Questa situazione pone un problema singolare: il successo del modello standard rischia di uccidere la ricerca sulle interazioni fondamentali. Infatti i nuovi investimenti nel settore, che di norma riguardano la costruzione di nuove macchine acceleratrici di particelle e di nuovi rivelatori, comportano spese unitarie dell'ordine della decina di migliaia di miliardi di lire e richiedono tempi di realizzazione superiori ai dieci anni. Dopo la conclusione del programma attualmente in corso resterà sicuramente ancora da mettere in luce qualche aspetto recondito del modello, ma non è chiaro se sarà possibile raccogliere, sia pure su scala mondiale, fondi sufficienti per ulteriori imprese. D'altra parte gli interrogativi teorici che restano aperti non sono pochi. In particolare, circa il modello standard, ci si chiede per quale ragione le masse dei diversi quark e leptoni differiscano per tanti ordini di grandezza. Ma un interrogativo molto più affascinante è se le varie simmetrie di gauge che sono associate alle diverse interazioni non siano riconducibili, a energie sufficientemente elevate, a un'unica simmetria unificante le interazioni forti ed elettrodeboli: si tratterebbe in questo caso di una grande unificazione. L'idea base della grande unificazione, che viene spesso indicata con l'acronimo GUT (Great Unzfication Theory), è estremamente semplice. La teoria elettrodebole contiene due costanti d'interazione fondamentali che hanno lo stesso ordine di grandezza della carica elementare: una è associata a tre degli assi di rotazione della simmetria di gauge, mentre l'altra è associata al quarto asse. La QCD contiene un'altra costante, che è più grande di quelle elettrodeboli e che, diversamente da queste ultime, decresce al crescere dell'energia. Ci si può allora chiedere se, a un certo punto, le costanti non tenderanno ad assumere lo stesso valore. In effetti, estrapo314
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
lando i calcoli approssimati oggi disponibili, sembra che le intensità delle tre forze tendano a coincidere a un'energia di cento miliardi di TeV, cioè di cinque ordini di grandezza più piccola di quella di Planck a cui gli effetti quantistici della gravitazione diventano importanti. Sfortunatamente i modelli più semplici e più naturali del meccanismo di grande unificazione sono stati nettamente smentiti alla prima verifica cruciale. Essi prevedevano infatti una violazione del numero barionico e quindi un'instabilità del protane che pur essendo perfettamente osservabile con la strumentazione disponibile, non è mai stata rilevata. Assumendo invece che la grande unificazione sia fondata sul meccanismo della supersimmetria, si ha che l'energia a cui essa interviene cresce di un altro ordine di grandezza; la tendenza delle costanti a identificarsi migliora e la violazione del numero barionico diminuisce riducendosi a valori attualmente del tutto inosservabili. È evidente dagli ordini di grandezza delle energie coinvolte che uno studio diretto della grande unificazione con la tecnica degli acceleratori non sarà mai possibile: si pensi che, se mai si riuscisse a raggiungere campi acceleranti di un miliardo di volt per metro, per ottenere l'energia della grande unificazione sarebbe necessario realizzare macchine della lunghezza di miliardi di chilometri. Esiste invece la possibilità che entro l'anno 2010, con il realizzarsi dei programmi sperimentali già approvati, si possa scoprire qualche traccia della validità del meccanismo della supersimmetria. Tuttavia i limiti tecnici non pong8no freni sostanziali alla speculazione teorica, che, anzi è fortemente stimolata dalla relativa vicinanza dell'energia di grande unificazione a quella di Planck. Si tratta infatti di quattro ordini di grandezza, nettamente meno della separazione fra la massa del quark più leggero e di quello più pesante. In questa situazione il vero meccanismo di grande unificazione dovrà necessariamente coinvolgere la gravità quantistica. I tentativi di formulare un quadro teorico adatto a trattare questa problematica si basano su uno schema alternativo e più generale della teoria dei campi: la teoria della corda supersimmetrica. Non si tratta di una teoria completamente definita, ma di uno schema piuttosto ampio in cui l'interazione elementare non avviene in un punto, ma lungo una linea, materializzata appunto dall'idea di corda. La dinamica della corda con i suoi gradi di libertà interni è assimilabile a quella di un numero infinito di campi di cui solo un numero finito ha masse trascurabili rispetto all'energia di Planck e quindi gioca un ruolo significativo alle energie attuali. Tuttavia l'esistenza di questi gradi di libertà in più è assolutamente essenziale perché introduce una lunghezza minima nella teoria senza violare la sua località. Abbiamo già visto che per risolvere distanze sempre più piccole occorre accrescere l'energia cinetica delle particelle usate come sonde. Se queste particelle sono riconducibili a stati della corda e se la loro energia supera una certa soglia, interagendo esse tendono a perdere energia eccitando gradi di libertà interni della corda stessa; il reciproco della soglia misura dunque la minima distanza osservabile.
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
La teoria della corda si presenta come uno schema affascinante e risolutivo, in cui tutte le interazioni troverebbero la loro unificazione. Il problema che resta, al di là della scelta di precisi modelli dinamici, è che i calcoli espliciti sono troppo difficili: c'è quindi il rischio che la ricerca teorica sulle interazioni fondamentali sfoci in una teoria incapace di fornire previsioni. VI
·
GLI
SVILUPPI
DELLA
FISICA
DELLA
MATERIA
CONDENSATA
La fisica della materia condensata studia gli aggregati macroscopici di atomi e molecole e, pur non avendo generato la valanga di idee rivoluzionarie tipica della teoria delle interazioni fondamentali, ha avuto un impatto tecnologico ben più forte di quest'ultima. Essa ha inoltre fornito, in gran numero, applicazioni e verifiche della meccanica quantistica, con particolare riferimento alla descrizione della dinamica di sistemi di particelle identiche. Il campo di intervento più importante dei concetti quantistici nella fisica della materia condensata è senz'altro quello che riguarda l'interpretazione della struttura elettronica dei solidi. L'elemento essenziale di questa interpretazione è il cosiddetto effetto tunnel: se una particella materiale classica deve superare un campo di forze che si oppone al suo moto, essa spende, per avanzare, l'energia cinetica di cui si trova in possesso e, una volta esauritala, si ferma e inverte il suo percorso. In questo processo l'energia cinetica della particella viene convertita completamente in energia potenziale, quindi la particella si ferma e torna indietro. Questa semplice analisi non è ripetibile nel caso quantistico a causa del principio di indeterminazione. Infatti, anche se è possibile parlare di stati con energia definita, non ha senso nel caso quantistico distinguere energia cinetica e potenziale; l'energia potenziale è una funzione del punto in cui si trova la particella, mentre quella cinetica lo è dell'impulso: dunque esse non possono essere conosciute simultaneamente. Questo fatto permette alla particella quantistica di raggiungere, anche se per brevi tratti e con scarsa probabilità, regioni che non essendo compatibili con la sua energia, classicamente le riuscirebbero inaccessibili. Per chiarire il discorso torniamo al modellino balneare della biglia che si muove senza attrito sulla superficie di una spiaggia e supponiamo che la biglia sia stata scagliata contro una montagnola ma con forza insufficiente per superarla, pur raggiungendone quasi la sommità. È possibile che quel poco di libertà in più concesso alla biglia dalla meccanica quantistica la faccia trovare, anche se con probabilità minima, oltre la sommità della montagnola. In questo caso la particella potrebbe discendere dall'altra parte senza ulteriori ostacoli avendo così superato una barriera insuperabile. Dunque, secondo l'effetto tunnel, la barriera, che al livello classico avrebbe riflesso la particella, al livello quantistico è parzialmente trasparente. Ovviamente gli atomi, che sono sistemi legati, trattengono i loro elettroni; se però due atomi si avvicinano a una distanza confrontabile col loro diametro è pos316
www.scribd.com/Baruhk
:la fisica delle interazioni fondamentali, della materia e del cosmo
sibile che si scambino un elettrone per effetto tunnel. Se poi consideriamo la disposizione ordinata di atomi posti a stretto contatto in un cristallo, dobbiamo aspettarci che gli elettroni meno legati ai singoli atomi possano muoversi liberamente passando da atomo ad atomo. In queste condizioni i livelli atomici si trasformano in gruppi di stati con energia variabile con continuità in un certo intervallo, e cioè in bande. Gli elettroni tendono a occupare gli stati disponibili di energia minima, compatibilmente col principio di esclusione di Pauli, ma vengono disturbati in questo dal moto termico degli atomi e dei loro simili. Comunque, a temperatura non troppo elevata, gli elettroni riempiono completamente un certo numero di bande, di cui quella con energia maggiore è detta banda di valenza; in certi materiali gli elettroni occupano parzialmente gli stati della banda immediatamente superiore, detta di conduzione. Ciò fa sì che il cristallo si comporti come un conduttore, perché gli elettroni sono liberi di passare da uno stato all'altro sotto l'azione di campi elettrici esterni; negli altri casi esso si comporta come un semiconduttore o un isolante. La differenza fra questi due regimi è solo quantitativa dipendendo dallo spessore dell'intervallo di energie proibite che si instaura fra la banda di valenza e quella di conduzione. La larghezza della zona proibita può essere modificata aggiungendo nel cristallo atomi estranei i cui livelli si inseriscano appunto all'interno della zona; ciò modifica in modo sostanziale e assai libero le proprietà elettriche del materiale. È su questo principio che, dopo la scoperta del transistor avvenuta nel 1956 a opera degli americani J. Bardeen (1908-94), W. Brattain (1902-87) e W. Shockley (1910-89), si è sviluppata l'elettronica a stato solido i cui progressi sono ancora ben lontani dall'esaurirsi. Questo è uno dei numerosissimi esempi del contributo della fisica moderna alla conoscenza dei materiali; d'ora in poi, per ragioni di spazio, l'attenzione sarà limitata agli effetti che si verificano a bassa temperatura a causa della coerenza quantistica che gioca un ruolo più evidente. Si parlerà dunque, in particolare, della superfluidità dell'isotopo di peso 4 dell'elio (che corrisponde al simbolo 4He) e della superconduttività. Abbassando la temperatura dell'elio sotto 2,2 K (2,2 gradi assoluti corrispondenti a - 2 7 r OC circa), il diagramma del suo calore specifico, cioè la quantità di calore che deve essere ceduta per innalzare la temperatura di un grado, presenta una cuspide detta punto Il (in quanto la lettera Il ha proprio la forma di una cuspide); sotto tale punto il calore specifico dell'elio, che si comporta come un liquido, aumenta di sei ordini di grandezza e il liquido, o meglio una sua parte, acquista la capacità di fluire attraverso capillari tanto sottili da impedire il passaggio anche all'elio gassoso. Il fenomeno attirò l'attenzione di molti fisici fra cui il polacco F.W. London (1900-54), il russo L.D. Landau (r9o8-68), il norvegese L. Onsager (1903-76) e i già citati Feynman e Yang. Prevalse l'interpretazione che il fenomeno fosse collegato a quello della condensazione di Bose, secondo cui in un gas di bosoni non interagenti a bassa temperatura, una frazione importante delle particelle tende a occupare un singolo stato, quello di impulso nullo; si ha dunque 317
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
una vera e propria condensazione del gas in questo stato. In tali condizioni, per effetto dell'emissione stimolata discussa nel terzo paragrafo, l'interazione fra gli atomi induce, sostanzialmente, solo alcuni particolari processi: gli urti fra gli atomi residui e quelli con impulso nullo in cui una delle due particelle partecipanti all'urto resta nel condensato, oppure quelli in cui due particelle residue con impulso opposto, collidendo frontalmente perdono il loro impulso ed entrano nel condensato o, infine, il processo inverso di quest'ultimo. Trascurando ogni altro effetto la dinamica del sistema risulta esattamente risolubile; i calcoli mostrano che il liquido subisce eccitazioni collettive che assomigliano a onde sonore per cui l'energia è proporzionale al modulo dell'impulso, mentre la costante di proporzionalità corrisponde alla velocità del suono. È possibile dimostrare, in termini di pura e semplice conservazione di energia e impulso, che un liquido di questo tipo in moto in un condotto non può scambiare forze di tipo viscoso con le pareti del condotto stesso se la velocità del liquido è inferiore a quella del suono, che in questo senso assume il ruolo di velocità critica. Calcoli più precisi mostrano l'esistenza di modi di eccitazione che sono di tipo più complesso, ma che non cambiano qualitativamente il risultato. In conclusione, la superfluidità dell' 4He è direttamente riconducibile a un effetto di coerenza quantistica del tipo di quelli descritti nel terzo paragrafo; la natura specifica di questo fenomeno è anche confermata dal diverso comportamento dell' 3He , i cui atomi sono fermioni e quindi non compiono la condensazione di Bose. Un'analoga interpretazione si ha nel caso della superconduttività. Questo fenomeno è stato scoperto nel 1911 dall'olandese H. Kamerlingh Onnes (1853-1926) che ha osservato come la resistenza elettrica di un filo di mercurio si annulli alla temperatura di circa 4 gradi assoluti. Molto più tardi, nel 1934 fu dimostrato dal tedesco W. Meissner che molti superconduttori sono diamagneti perfetti, e cioè che espellono il campo magnetico dal loro interno; fu anche osservato che un superconduttore perde la sua peculiare proprietà se è immerso in un campo magnetico troppo intenso. In un primo tempo furono proposte varie interpretazioni a carattere puramente fenomenologico, cioè tali da descrivere solo le correlazioni tra fenomeni diversi senza spiegarne l'origine in termini fondamentali. Solo nel 1957 gli americani]. Bardeen, L.N. Cooper (n. 1930) e J.R. Schrieffer (n. 1931) pubblicarono la teoria della superconduttività. Questa si basa su un'osservazione apparsa nel 1950, secondo cui gli elettroni in un cristallo, oltre a interagire direttamente tramite il loro campo elettrico, si scambiano forze attrattive dovute alla presenza degli ioni, cioè degli atomi che hanno perso qualche elettrone. Il meccanismo che produce queste forze è assai semplice: un elettrone immerso nel cristallo attrae a sé gli ioni deformando il cristallo stesso; questa deformazione esercita sugli elettroni vicini una debole forza attrattiva verso il primo elettrone. Tenendo conto di questa forza Cooper osservò che gli elettroni possono legarsi debolmente a coppie (dette appunto coppie di Cooper), se la temperatura non è troppo alta, cioè tale che l'agitazione ter318
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
mica distrugga gli stati legati. Il valore di questa temperatura limite dipende dal materiale, ma è di regola di qualche grado assoluto. Assunta l'esistenza delle coppie di Cooper appare chiaro che, essendo formate da un numero pari di fermioni, esse si comportano come bosoni, così che tendono a condensare in modo analogo all' 4He: dato che le coppie sono cariche, l'annullarsi della viscosità nei moti del fluido da esse formato, equivale a un effetto superconduttivo. L'esistenza di questo fluido di particelle con carica eguale al doppio di quella elementare fornì anche un fondamento alla teoria sviluppata nel 1950 da Landau e V.L. Ginsburg (n. 1916) per spiegare la quantizzazione del flusso del campo magnetico che penetra in un superconduttore. Ciò awiene per quantità elementari corrispondenti al rapporto fra la costante di Planck e il doppio della carica elettronica. Un altro effetto importante è quello previsto nel 1962 dall'inglese B.D. Josephson (n. 1940) nel caso di due corpi superconduttori posti in contatto elettrico; in presenza di un campo magnetico la giunzione fra i due corpi viene attraversata da correnti elettriche il cui valore dipende dal campo magnetico. Questo effetto e altri strettamente collegati fanno, delle giunzioni Josephson, strumenti di incredibile sensibilità per la misura dei campi elettromagnetici. I progressi nella fisica della materia condensata sono stati così numerosi e importanti da rendere vano ogni tentativo di delinearli in poche pagine. Siamo così costretti a trascurare gli sviluppi della teoria della materia in presenza di più fasi in equilibrio (come la fase liquida in presenza del vapore) e, in particolare, la teoria dei sistemi al punto critico (per esempio, la descrizione dell'acqua quando ad alte temperatura e pressione scompare ogni distinzione fra la fase liquida e il vapore). Né lo spazio è sufficiente per trattare i progressi nella comprensione dello sviluppo della turbolenza. Gli esempi illustrati forniscano però un'idea sufficientemente chiara della fondamentale unità metodologica che caratterizza la fisica nei suoi campi diversi. Evidentemente la portata e le conseguenze sul piano applicativo dei progressi conseguiti nei vari settori sono sostanzialmente diverse e difficilmente commensurabili, ma ciò che mostra la fondamentale unità della disciplina scientifica è la trasferibilità dei concetti e dei metodi da un'area all'altra, con un processo che si può definire di fertilizzazione incrociata. VII
· LA
COSMOLOGIA
FISICA
Agli inizi degli anni cinquanta due erano i modelli cosmologici che riscuotevano i maggiori consensi presso la comunità scientifica: il modello di creazione continua e quello dell'esplosione iniziale o, come viene abitualmente denominato, del Big Bang. Il modello di creazione continua era stato proposto come l'unica soluzione in grado di giustificare una situazione di densità costante di materia in un universo che si sapeva essere in espansione: una creazione continua di materia avrebbe com-
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
pensato la diminuzione di densità causata dall'espansione. Un aspetto negativo di questo modello era quello di dover accettare l'idea di una creazione estesa indefinitamente nel tempo, e non completata virtualmente in un istante; d'altra parte, il lato positivo era costituito dalla possibilità di controllarne la validità, dato che il modello era altamente predittivo. Ma fu proprio questa predittività a decretarne la fine; infatti nei primi anni sessanta alcune osservazioni rivelarono che nel passato sorgenti di grande energia come le radiogalassie esistevano in numero maggiore rispetto al presente, dimostrando così l'esistenza di un'evoluzione temporale che contraddiceva l'ipotesi di base della creazione continua. Successivamente ulteriori osservazioni, e in particolare la scoperta della radiazione cosmica di fondo, avvenuta nel 1965, spostarono il favore della comunità scientifica verso il modello alternativo. La scoperta della radiazione cosmica di corpo nero (detta anche radiazione fossile o radiazione di fondo) avvenne a opera degli americani A. Penzias (n. 1933) e R. Wilson (n. 1936), e proprio l'esistenza di tale radiazione indusse ad accettare l'idea di una evoluzione globale dell'universo. La scoperta fu casuale: sistemando un'antenna per esperimenti di comunicazione con il satellite Telestar i due scienziati misurarono quello che per la loro antenna era un « rumore» di fondo isotropo, ovvero una radiazione che proveniva da qualunque direzione con uguale intensità e aveva le stesse caratteristiche di quella emessa da un corpo nero a circa 3 K. Era la conferma di una brillantissima predizione di G. Gamow, il quale nel 1948 aveva ipotizzato che gli elementi chimici leggeri fossero stati sintetizzati ad altissima energia in epoca primordiale in una specie di palla di fuoco; l'alta temperatura dell'universo avrebbe dato origine a un campo di radiazione uniforme, la cui temperatura sarebbe poi andata decrescendo a causa dell'espansione, fino a un valore attuale che Gamow e collaboratori avevano calcolato attorno ai 5 K. TI modello del Big Bang è quindi basato su alcune assunzioni e su alcune osservazioni fondamentali. Queste ultime riguardano l'isotropia dell'universo in una struttura su larga scala e il suo attuale stato di espansione. La più rilevante conferma dell'ipotesi dell'isotropia dell'universo si è dunque avuta con l'osservazione della radiazione fossile. Rimane il problema di misurare con la massima precisione lo spettro di questa radiazione, per evidenziare eventuali fluttuazioni attorno al valore medio: si vedrà infatti che proprio la presenza di anisotropie, potrebbe fornire una chiave per comprendere come l'universo primordiale abbia potuto iniziare a organizzarsi. Le misure più recenti e precise sono state effettuate nel 1992 dal satellite COBE (COsmic Background Explorer) che ha rivelato uno spettro di corpo nero di temperatura media T= 2.726 K, con fluttuazioni in temperatura dell'ordine di 1 parte su w 5. L'esistenza di tale radiazione e la sua isotropia implicano l'esistenza di uno stadio dell'evoluzione dell'universo durante il quale materia e radiazione erano in equilibrio termodinamico a un'unica temperatura. Un altro argomento concerne l'isotropia delle galassie. A prima vista la distribuzione delle galassie sembra indicare la più completa disomogeneità, in quanto esse 320
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
tendono ad accumularsi in enormi ammassi, dalla struttura allungata in filamenti, separati irregolarmente da « buchi », zone caratterizzate da una densità minima. Queste disomogeneità però si attenuano se le osservazioni vengono fatte su scale fisiche sufficientemente grandi e uno studio matematico della funzione di correlazione su larga scala evidenzia che qualunque regione dell'universo è del tutto simile alle altre: da ciò consegue che non esistono luoghi di osservazione dell'universo «privilegiati». In conclusione, le galassie presentano una distribuzione a spugna con materia e buchi connessi topologicamente. A distanze maggiori anche le lontanissime sorgenti di onde radio, che rappresentano le più lontane strutture accessibili, indicano una chiara distribuzione omogenea con fluttuazioni minime. L'ulteriore osservazione basilare su cui è costruito il modello del Big Bang concerne l'attuale stato di espansione dell'universo. La legge fondamentale fu enunciata nel 1929 dall'americano E.P. Hubble, il quale formalizzò la descrizione del moto di recessione delle galassie esprimendone la dipendenza lineare della velocità (v) dalla distanza dalla nostra galassia (r) tramite la costante che da lui prese nome: v = H 0r. Prima di impostare la discussione circa il problema dei modelli dinamici relativi all'epoca primordiale è necessario introdurre la definizione di una grandezza a cui si fa spesso riferimento: lo spostamento verso il rosso (frequentemente citato con il sintetico termine inglese di red shi/t); tale grandezza esprime la variazione di lunghezza d'onda delle righe spettrali emesse da una galassia a causa della sua recessione e, interpretata come conseguenza dell'effetto Doppler, permette di ricavare la velocità di recessione. La costante di Hubble H 0 rappresenta l'attuale ritmo di espansione dell'universo. Va tenuto presente che, propagandosi la luce a velocità finita, le grandezze che noi osserviamo e misuriamo non si riferiscono all'istante dell'osservazione, bensì a un tempo precedente, dipendente dalla distanza dell'oggetto in osservazione. Tornando al problema della descrizione globale dell'universo osserviamo che essa deve basarsi sulla teoria della relatività generale (di cui si è fatto cenno nel quinto paragrafo). Si ricordi in particolare che questa teoria, sviluppata da Einstein a partire dal fondamentale postulato di equivalenza, secondo cui un osservatore non distingue tra accelerazione e gravitazione, interpreta la gravitazione come una geometria, cioè una metrica, abbandonandone la descrizione newtoniana basata sul concetto di forza. La metrica in cui viene inquadrato il modello cosmologico, comunemente riferita come metrica di Robertson-Walker, è consistente con le due osservazioni fondamentali dell'isotropia e dell'espansione e con il principio cosmologico, che fa riferimento alla proprietà secondo cui non esistono punti di osservazione preferenziali nell'universo: le osservazioni che noi facciamo sono identiche a quelle che potrebbe fare un osservatore in qualunque altro punto. La metrica di Robertson-Walker è compatibile con tre possibili scelte della geometria spazio-temporale: un raggio di curvatura reale (curvatura positiva), che corrisponde a una geometria spazio-tem321
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
porale di tipo sferico, cioè chiusa; un raggio di curvatura immaginario (curvatura negativa), a cui corrisponde una geometria aperta di tipo iperbolico, e, infine, un raggio di curvatura infinito (curvatura nulla), che farebbe ricadere in una geometria localmente euclidea. Lo stato attuale dell'universo è di espansione, questo equivale ad affermare che la distanza attuale tra due punti qualsivoglia è maggiore di quanto era nel passato. Si può quindi definire un /attore di scala R che rende conto di questo fatto; l' osservazione fondamentale, a questo punto, è che lo stesso fattore di scala è funzione del tempo e varia con l'epoca cosmica. Il problema dinamico consiste nella determinazione della metrica partendo dalle equazioni della relatività generale, scritte da Einstein nel 1917; in esse intervengono la materia, a cui ci si riferisce tramite la densità, e la radiazione, descritta tramite la pressione. Si vedrà tra breve che materia e radiazione svolgono un ruolo ben distinto, ragion per cui ha senso contrapporre l'ipotesi che l'universo sia dominato dalla prima a quella di un universo dominato dalla seconda. Einstein introdusse un ulteriore e dibattutissimo termine costante, chiamato costante cosmologica, che, dal punto di vista newtoniano, potrebbe essere interpretato come una forza repulsiva di origine ignota necessaria per bilanciare l'attrazione gravitazionale della materia presente nell'universo, evitando così ogni forma di moto. Tale termine sacrificava la validità della relatività ristretta in un universo vuoto, privo di massa ed energia, e quando, alcuni anni più tardi, Hubble scoprì l'espansione dell'universo, lo stesso Einstein definì la costante cosmologica «il più grosso errore della mia vita». Del tutto inaspettatamente però proprio questo termine costante ha acquistato nuova rilevanza nel recente modello inflazionario. Analizziamo ora separatamente due modelli di universo: il primo dominato dalla materia sotto forma di polvere cosmica e il secondo dominato invece dalla radiazione, ponendo temporaneamente uguale a zero la costante cosmologica. Nel primo caso, studiando la decelerazione di una galassia dovuta all'attrazione della materia circostante, si ottiene un risultato indipendente dalla massa della galassia: la fisica si trasforma da locale a globale, come richiesto dall'isotropia e non esiste una scala fisica che limiti la validità del calcolo: il calcolo descrive la dinamica dell'universo anche per scale grandi. Si deve al fisico russo A.A. Friedmann (1888-1925) il merito di aver risolto le equazioni di campo di Einstein per un universo dominato dalla materia, riconoscendo l'esistenza di una densità critica. Definendo Q il rapporto tra la densità che compare nelle equazioni e la densità critica, Friedmann evidenziò la correlazione tra la dinamica del modello e la geometria sottostante: i modelli con Q maggiore di l corrispondono alla geometria chiusa di tipo sferico, in cui si prevede che l'universo debba collassare in un tempo finito verso uno stato di densità infinita, mentre quelli con Q minore di l rappresentano la geometria iperbolica, in cui è previsto che l'universo si espanda per sempre. Infine abbiamo i modelli, che vengono abitualmente definiti modelli di Einstein-De Sitter o modelli critici, in cui
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
la densità attuale è uguale alla densità critica (il valore di .Q è uguale a 1), che si interpongono tra i due precedenti e nei quali il fattore di scala R tende a un valore infinito con una velocità finita. Un importante risultato per la cosmologia è la possibilità di ricavare la relazione matematica tra red shi/t e tempo cosmico per poi valutare il tempo trascorso dal Big Bang, cioè l'età dell'universo. Questo risulta essere inversamente proporzionale a H 0 , con un fattore moltiplicativo che dipende dal valore di .Q, e che comunque non si discosta molto dall'unità. Passiamo alla seconda ipotesi di un universo completamente dominato dalla radiazione. In questo caso il ruolo fondamentale viene assunto dalla pressione ed è la radiazione stessa che contribuisce alla massa inerziale. Si può calcolare come si evolve la legge che definisce lo spettro di corpo nero in seguito a red shift: la forma dello spettro stesso viene conservata, mentre mutano la sua temperatura e la frequenza di ogni fotone, che ovviamente crescono muovendosi all'indietro nel tempo cosmico. Si presenta ora un problema fondamentale per il modello classico del Big Bang: com'è possibile che uno stato di assoluta isotropia, quale viene rivelato dalle nostre osservazioni alle massime scale accessibili, permanga su regioni dello spazio i cui orizzonti non si intersecano? In un'epoca vicina all'esplosione iniziale, la distanza tra due particelle poteva crescere più rapidamente della velocità della luce; non c'è contraddizione con la teoria della relatività in quanto le particelle stesse erano localmente in quiete e la loro distanza dipendeva dal ritmo con cui cresceva il fattore di scala R, cioè dal ritmo con cui lo spazio si dilatava. Secondo la teoria della relatività, nessun segnale può propagarsi a velocità superiore a quella della luce, e quindi informazioni che hanno origine in un certo punto a un dato istante non possono raggiungere una particella che disti dal punto più del prodotto della velocità della luce per il tempo trascorso da quell'istante. L'orizzonte di una particella, contenente tutte le particelle che possono aver ricevuto informazioni trasmesse simultaneamente da sorgenti comuni, con l'evolversi del tempo si allarga al doppio della velocità della luce, a cui bisogna aggiungere l'eventuale dilatazione del fattore di scala; quindi raggiunge sempre nuove particelle, ma resta sempre limitato. Come possono dunque regioni dello spazio che mai hanno subito influenze comuni e che quindi dovrebbero aver avuto evoluzioni del tutto indipendenti, presentare uno spettro di corpo nero assolutamente identico; come ci appare dalla radiazione fossile? È a questa domanda che vuole dare risposta il modello in/lazionario (legato anche alla più recente fisica delle interazioni fondamentali), proposto dall'americano A. Guth nel 1981 e successivamente sviluppato dal russo A. Linde. Se si considerano le equazioni di campo di Einstein, in situazione di vuoto, la dinamica dell'universo viene a dipendere unicamente dalla costante cosmologica, che viene ora interpretata come densità di energia del vuoto stesso; questa costante genera un effetto repulsivo del vuoto, per cui due particelle acquisterebbero un'accelerazione relativa. Il modello inflazionario descrive l'evolversi dell'universo da uno stato inizialmente dominato dalla radiazione a una temperatura corrispondente all'energia terc 323
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
mica di 10 15 GeV; a questa temperatura la fisica delle interazioni fondamentali ipotizza la rottura della simmetria di gauge unificante la cromodinamica e la teoria elettrodebole prevista dai modelli di grande unificazione (GUT). Per una scelta particolare delle condizioni iniziali corrispondenti a uno stato di sovraraffreddamento generato dal regime precedente, il campo scalare di Higgs, responsabile di questa rottura della simmetria, produce una condizione di pressione negativa che corrisponde a uno stato di «tensione». Ciò genera una rapidissima espansione che si accompagna con la rottura della simmetria. Durante l'espansione del vuoto la densità di energia si mantiene costante perché il lavoro necessario all'espansione è ottenuto a scapito dall'energia interna. In parole povere, espandendosi il vuoto, si crea una maggior quantità di vuoto, e quindi maggior energia di vuoto. Proprio da questo meccanismo viene la spiegazione del termine inflazionario: l'energia è fornita dal vuoto, così che l'energia dell'universo sembra nascere dal nulla. La soluzione delle equazioni della dinamica in regime di inflazione definisce una crescita esponenziale del fattore di scala R col tempo cosmico. Ecco allora la risposta al problema posto dal Big Bang classico relativamente agli orizzonti: purché abbia una durata sufficiente, il regime inflazionistico è in grado di estendere l'orizzonte sulla scala richiesta dalle nostre osservazioni di isotropia; la durata nel tempo corrisponde naturalmente a una conseguente estensione del volume causaimente connesso. Finita l'inflazione, l'espansione riprende seguendo il ritmo del Big Bang classico, ma ormai tutti i punti sono causalmente connessi, e tutti i processi si svolgono ovunque in modo congruente. Vanno a questo punto menzionati alcuni modelli che, pur nel quadro dell'inflazione, non prevedevano il meccanismo di Higgs, ma passaggi dallo stato grandeunificato allo stato differenziato simili a quelli delle transizioni atomiche. L'aspetto problematico di questi modelli sta nella istantaneità e nella casualità temporale di ciascuna transizione: al realizzarsi della quale, la regione dell'universo compresa nel suo orizzonte formerebbe una specie di «bolla » omogenea che riprenderebbe a evolversi secondo le leggi del Big Bang classico, indipendentemente dal realizzarsi della transizione in altre zone; si creerebbero quindi regioni di omogeneità del tutto sconnesse le une dalle altre. Nel trattare i modelli cosmologici sono state introdotte alcune costanti, la cui determinazione è oggetto di misure sempre più accurate. La costante di Hubble H 0 viene determinata partendo dalla velocità di allontanamento e dalla distanza di un certo numero di galassie; la misura della distanza si basa sul confronto di luminosità con oggetti stellari campione di cui è possibile valutare la magnitudine assoluta, che correla la luminosità alla distanza; la misura della velocità, che operativamente consiste in una misura di red shift, non presenta difficoltà concettuali, ma solo di tipo tecnico. Il valore della costante di Hubble è tuttora controverso, ma c'è accordo comune nell'assumerlo compreso tra 100 e 40 km/s Mpc, cioè tra circa 28 e n km/s per ogni milione di anni luce. 324
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
Per quanto riguarda l'età dell'universo, ai sistemi stellari più antichi della nostra galassia, gli ammassi globulari, viene attribuita un'età compresa tra i 13 e i 20 miliardi di anni. Traducendo, secondo i modelli illustrati, l'età dell'universo nella costante di Hubble, si ottengono valori compatibili con i limiti sperimentali di H 0• Le datazioni basate sui decadimenti radioattivi forniscono per l'età dell'universo una stima non troppo diversa, pari a circa ro miliardi di anni. Un altro parametro di grande significato è il valore attuale della densità dell'universo, e quindi il rapporto D fra questa e quella critica; di questa densità attualmente si è misurato il limite inferiore con diversi metodi. Il suo valore comprende un contributo dovuto alla massa delle galassie (D= o.o2), a cui si aggiunge quello della materia oscura; questo deve essere presente nelle regioni più esterne delle galassie giganti con struttura a spirale secondo quanto imposto dalle condizioni di stabilità del moto delle galassie stesse. Il contributo della materia oscura comporta un aumento della densità di un ordine di grandezza (D= 0.2); ulteriori stime non spostano in maniera rilevante il valore della densità attuale. Se il valore di D fosse oggi uguale a l, come viene spesso postulato, la massima parte della materia presente nell'universo sarebbe di tipo oscuro e sarebbe finora sfuggita a tutti i tentativi di rivelazione. Meno problematica è la misura della densità di radiazione presente nell'universo, il cui contributo maggiore viene dalla radiazione fossile. Si ha che la densità di energia dovuta alla radiazione è di svariati ordini di grandezza inferiore alla densità dovuta alla materia, e che pertanto il nostro universo è attualmente dominato dalla materia. Considerando l'evolversi, in funzione del tempo cosmico, del rapporto tra il contributo della radiazione alla massa inerziale e quello della materia, non è difficile mostrare con calcoli che in epoche primordiali, cioè fino a un tempo cosmico di circa ro 5 anni dopo il Big Bang (corrispondente a un red shift dell'ordine di 4 ro 4 ), l'universo appariva dominato dalla radiazione; successivamente si ebbe il passaggio verso uno stato dominato dalla materia. È a questo punto conveniente tracciare uno schema dei tempi e dei modi di evoluzione cosmica, attraverso cui, secondo il modello del Big Bang, si è sviluppato l'universo. Tutto comincia con una singolarità, il momento iniziale, che il modello non sa descrivere. L'epoca in cui inizia la descrizione è definita era di Planck ed è estremamente prossima all'istante della singolarità, corrispondendo a un tempo di circa ro- 43 s dall'istante t = O; durante quest'era la densità è estrema (w 93 g/cm3). Una tale descrizione spazio-temporale non può essere affidata alla fisica classica, ma è necessaria una trattazione quantistica. La teoria adatta a questo scopo potrebbe essere quella della corda supersimmetrica (menzionata nel quinto paragrafo), in cui le particelle non sono puntiformi ma hanno un'estensione lineare. Questa teoria descrive uno spa~io-tempo in cui le dimensioni non sono le usuali 4 (3 per lo spazio più l per il tempo), ma sono più numerose: durante l'era di Planck tutte queste dimensioni sono incurvate con raggi dell'ordine della lunghezza di Planck e la formazione dell'universo coincide con la dilatazione del raggio di curvatura corri-
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
spondente alle quattro dimensioni dello spazio-tempo fisico. Dunque proprio nell' era di Planck andrebbe cercata l'origine dei fondamenti ultimi, cioè di concetti più fondamentali di quelli di massa-energia e spazio-tempo. L'evoluzione dell'universo procede poi secondo il ritmo di espansione del fattore di scala R tipico di un'epoca dominata dalla radiazione: siamo in uno stato di superunificazione delle forze fondamentali (GUT), in un mondo supersimmetrico in cui bosoni e fermioni sono strettamente collegati. Durante questa fase, secondo i modelli GUT, nei decadimenti da particelle supersimmetriche in particelle più leggere barioniche e leptoniche, si sarebbe creata una asimmetria materia-antimateria dell'ordine di una parte su ro 9 ; questa asimmetria originale sarebbe di fondamentale importanza per capire la situazione attuale dell'universo, in cui sussiste la materia e non l'antimateria. Relegando in questa fase l'instaurarsi dell'asimmetria materia-antimateria, si ipotizza che originariamente la situazione sia stata di totale e assoluta simmetria. C'è un accordo generale anche sull'affermazione secondo cui l'universo appare nel suo insieme elettricamente neutro. Si pone allora la domanda fondamentale, e di rilevante implicazione filosofica: com'è possibile che in una situazione di assoluta simmetria e neutralità si sia formato l'universo differenziato che oggi osserviamo e che il «tutto» abbia avuto origine dal «nulla»? Vedremo come i cosmologi propongano una soluzione a questo nodo, basata sull'esistenza di fluttuazioni. Al realizzarsi delle condizioni per la rottura della simmetria di GUT, che si presentano al tempo t = ro- 36 s, quando l'espansione ha ridotto l'energia termica dagli iniziali ro 19 GeV a ro 15 GeV, inizia il complicato processo di inflazione che termina al tempo t = ro- 31 s, lasciando l'universo in uno stato in cui il campo cromodinamico è completamente differenziato da quello elettrodebole. L'espansione riprende poi regolarmente, salvo che nei regimi di cambiamento di fase: quando l'energia termica raggiunge i roo GeV, corrispondenti all'incirca alla massa dei bosoni intermedi, si creano le condizioni per la rottura spontanea della simmetria elettrodebole, e i campi elettromagnetici e deboli si differenziano; poi, abbassandosi ancora la temperatura, i quark si combinano negli adroni, l'antimateria si annichila, e le particelle instabili decadono. Al tempo t = l s, inizia il processo di nucleosintesi primordiale, che termina quando l'universo ha l'età di I giorno. È in questo periodo che viene fissata la quantità dei nuclei leggeri e dei leptoni attualmente esistenti, grazie a un meccanismo di disaccoppiamento delle singole componenti. Per chiarirne il funzionamento si osservi che nell'universo denso e caldo ogni particella interagisce con le altre con una certa frequenza caratteristica della sua specie; a causa di questi urti si mantiene l' equilibrio termico fra le varie componenti e la densità delle particelle di ciascun tipo è determinata dalle equazioni della meccanica statistica. Col raffreddamento e con la rarefazione dell'universo il tempo fra due interazioni successive della stessa particella cresce rapidamente; quando esso supera l'età stessa dell'universo la particella 326
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
cessa di interagire e si disaccoppia; da quell'istante in poi la popolazione della sua specie rimane congelata all'ultimo valore raggiunto. A conti fatti, neutrini, elettroni, neutroni e protoni si disaccoppiano quando l'energia termica raggiunge circa l MeV. L'universo a questo punto diventa trasparente ai neutrini che si sono disaccoppiati con il venir meno dell'interazione debole: se fosse possibile studiarli, si dovrebbe riscontrare un fondo di neutrini per cui, dopo il disaccoppiamento alla temperatura di ro 1 K, la temperatura attuale sarebbe T= 2.96 K. Si calcola dunque che alla temperatura di disaccoppiamento raggiunta quando l'universo ha l'età di l s, la frazione di neutroni sul totale barionico (neutroni più protoni) sia uguale a 0.21. C'è poi una lenta diminuzione di questo valore dovuta al decadimento fS spontaneo, che lo porta a 0.12 dopo 300 s quando inizia la formazione degli elementi leggeri. A questo punto tutti i neutroni presenti si combinano con i protoni, dando origine a 4He; essendo il rapporto numerico fra neutroni e protoni, sopra indicato, uguale a circa Il8, si ha la formazione di un nucleo di 4He ogni 14 nuclei di idrogeno e, dato che l'elio è quattro volte più pesante dell'idrogeno, viene convertita in esso il 25% circa della massa barionica totale. È importante ricordare che si formano in proporzioni inferiori anche altri elementi leggeri quali il deuterio (D), l' 3He, il 7 Li. L'esistenza della nucleosintesi primordiale ha il merito di dare una spiegazione a un problema che per lungo tempo aveva tormentato gli scienziati: la nucleosintesi stellare, che si realizza all'interno dei corpi celesti in condizioni di equilibrio termodinamico su scale di tempi lunghi, non è in grado di produrre questi elementi leggeri, anzi, se mai, il deuterio, e altri nuclei leggeri, essendo poco legati, vengono distrutti e non creati all'interno delle stelle. Il calcolo corretto dell'abbondanza del deuterio e degli altri isotopi instabili va pertanto inteso come uno dei maggiori successi del modello del Big Bang. Mentre l'abbondanza di 4He corrisponde a una misura dell'energia dell'universo al momento del disaccoppiamento delle interazioni deboli, l'abbondanza di D e 3He è legata alla densità della materia barionica presente al momento della loro formazione. Dato che, come abbiamo detto, i processi stellari hanno successivamente distrutto e non creato deuterio, l'attuale rapporto di abbondanza di deuterio relativamente all'idrogeno, misurato nell'ordine di ro- 5 , permette di porre un limite superiore alla quantità della materia barionica presente nell'universo. La nucleosintesi lascia la materia allo stato di plasma formato da nuclei ed elettroni non legati fra loro e l'espansione continua dominata dalla radiazione, in maniera del tutto uniforme. Ma un'altra transizione fondamentale deve aver luogo: come abbiamo visto, attualmente l'universo è dominato dalla materia, e deve quindi prodursi il passaggio dallo stato dominato dalla radiazione a quello attuale. Questa transizione ha luogo a red shift dell'ordine di ro 4 e con essa cambia la legge di evoluzione temporale del fattore di scala R. Dopo la transizione lo stato della materia resta completamente ionizzato, e questo stato di cose continua fino a una temperatura di circa 4000 K, corrispondente a un red shift di circa 1500. Successivamente
°
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
la densità di energia non è più sufficiente a mantenere lo stato di ionizzazione, ed è per questo che l'epoca in questione viene definita di ricombinazione. Usando i fotoni non è possibile studiare la struttura dell'universo per red shift superiori a circa rooo, perché i fotoni subiscono continue interazioni e perdono così ogni informazione sulla loro origine. Per red shift inferiori, invece, i fotoni trasportano liberamente queste informazioni: il red shift pari a rooo diviene l'ultima occasione di interazione per la radiazione elettromagnetica, e sono pertanto le fluttuazioni impresse a quest'epoca alla radiazione di fondo che appaiono nello spettro di corpo nero che misuriamo ora. Una volta seguita via via l'origine di questo universo, resta aperta una domanda fondamentale più volte posta: quali eventi hanno permesso a una struttura perfettamente isotropa e omogenea, qual è il gas uscito dalla ricombinazione, di creare agglomerati in cui si distinguono superammassi di galassie, ammassi di galassie, galassie e stelle? Il modello che sta all'origine della formazione delle galassie viene detto baryonic pancake (ingl., frittella barionica). Il problema fu affrontato per la prima volta dall'inglese]. Jeans (r877-1946) già nel 1902 con lo studio della instabilità gravitazionale e delle condizioni sotto le quali le parti compresse di una fluttuazione sinusoidale di densità avrebbero continuato a contrarsi gravitazionalmente, divenendo sempre più dense. La questione è in realtà complicata dalla coesistenza di materia e radiazione, nelle diverse situazioni di interrelazione, dipendenti dalla fase di evoluzione dell'universo. Accade così che, per fluttuazioni di lunghezza d'onda superiore a un valore critico, quelle corrispondenti ad ampiezze modeste vengono a poco a poco smussate dalla diffusione dei fotoni, e solo quelle più importanti sopravvivono all'epoca di ricombinazione, come mostra la teoria sviluppata dal russo Y. Zeldovich e dai suoi collaboratori negli anni settanta. Nell'epoca precedente la ricombinazione, queste fluttuazioni sono onde longitudinali oscillanti con una ampiezza costante che deve superare il valore delle fluttuazioni statistiche. La loro origine è oscura. Si ipotizza, per esempio, che fossero presenti nella struttura originaria da cui si è sviluppato l'universo o che siano state prodotte in processi elementari primordiali. Le fluttuazioni di densità si evolvono nell'universo in espansione e sono dunque all'origine del collasso gravitazionale da cui ha inizio l'agglomerarsi delle galassie. Il loro sviluppo su larga scala raggiunge un andamento non lineare, e le strutture che si vanno formando e sopravvivono come agglomerati e superagglomerati di galassie non tendono ad avere una simmetria sferica, ma possono essere approssimati a ellissoidi con assi diseguali, che tendono poi a collassare più rapidamente lungo l'asse minore, dando luogo alla forma appiattita, a frittella. La densità aumenta nel piano dell'ellisse e la materia che viene attratta si scalda a mano a mano che la materia collassa: le galassie all'interno di questa struttura si formerebbero per frammentazione o instabilità termica all'interno dell'ammasso. Un altro problema, sollevato nella descrizione del modello del Big Bang e di cui si è già fatto cenno, è quello relativo al valore di Q. Si è visto in particolare
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
che, per quanto numerose indicazioni teoriche spingano a ipotizzare che il valore di questa grandezza non debba discostarsi grandemente da I (come segue in modo naturale dal modello inflazionario) e che quindi la densità dell'universo attuale debba essere dell'ordine della densità critica, la stima del suo valore non supera o.2, 0.3. Si apre allora il complesso argomento della materia oscura, sulla cui natura vengono fatte diverse illazioni. Il metodo tradizionale per determinare la quantità di materia presente nell'universo implica la misura della velocità degli oggetti che si muovono nel potenziale gravitazionale risultante dalle masse esistenti. Escludendo a priori l'esistenza di altre forze, risulta ben evidente la presenza di massa oscura nell'alone della nostra e di altre galassie, e di questo si è tenuto conto nel definire il valore di Q. La materia oscura potrebbe forse essere di ordinario tipo barionico, in condizioni particolarmente difficili da rivelare. La densità di barioni nell'universo è un importante parametro cosmologico e la conoscenza dell'abbondanza del contenuto barionico dell'universo sarebbe di massima importanza per comprendere l'origine della asimmetria materia-antimateria. Un metodo per studiare la densità barionica è, come si è visto, la quantificazione dell'abbondanza di elementi leggeri come il deuterio. Per questo motivo in epoche recenti si è sviluppata una raffinata tecnica di misura: la luce delle galassie con alto red shift può essere assorbita da nuvole di gas che si inframmettono tra le galassie stesse e la Terra, e se queste nuvole hanno anch'esse un red shift alto, lo studio del loro spettro di assorbimento dovrebbe dare un'indicazione dell'abbondanza degli elementi esistente prima della distruzione di elementi come il deuterio. In uno di questi sistemi celesti è stata misurata molto recentemente (1994) l'abbondanza relativa deuterio/idrogeno che risulta essere 3 w- 4 , superiore ai valori precedentemente stimati; questo implicherebbe una densità barionica lievemente inferiore a quella assunta abitualmente. Per quanto riguarda la materia oscura barionica nell'alone della nostra galassia, sono stati recentemente osservati nella Nube di Magellano oggetti di massa piccola e con emissioni elettromagnetiche trascurabili, sfruttando l'effetto del loro campo gravitazionale sulla luce emessa dalle stelle poste dietro di essi. Questi oggetti vengono detti MACHOS (acronimo di MAssive Compact Halo ObjectS) e, nel giro di pochi anni, ci si aspetta di valutarne la rilevanza riguardo al problema considerato. Numerosi sono poi i candidati costituenti non-barionici la cui esistenza è ipotizzata in base ai modelli più recenti nel campo della fisica delle interazioni fondamentali. Le masse delle possibili particelle oscure variano sul più ampio spettro: dagli assioni, con energia di riposo di w- 5 eV, che dovrebbero aver avuto origine quando la temperatura dell'universo era di 10 12 K e non avrebbero mai raggiunto l'equilibrio termico, mantenendosi «freddi», a particelle dell'ordine della massa di Planck. Tra i candidati compaiono anche i tre tipi noti di neutrino, qualora essi abbiano una massa a riposo diversa da zero, e alcune particelle la cui esistenza è
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
ipotizzata nell'ambito delle teorie supersimmetriche come il gravitino, il fotino o il neutralino (spesso chiamato col termine WIMP, dall'inglese Weak Interactive Massive Partide). Data la varietà delle proposte, il problema resta quello di individuare esperimenti e misure che, con tecniche diverse, possano rivelare i reali costituenti di questa ipotetica forma di materia. Il primo punto consiste nel verificare se i neutrini hanno massa, come in effetti numerosi indizi di varia origine sembrano indicare; le ricerche sperimentali in questo senso sono tuttora in atto. Negli anni ottanta il gruppo sovietico guidato da A. Luybimov pubblicò un valore dell'energia di riposo del neutrino elettronico di circa 30 eV, provocando grande sensazione. Ulteriori esperimenti hanno però contraddetto questo risultato e, attualmente, gli esiti più recenti danno un limite superiore di 5 eV. Per quanto riguarda candidati supersimmetrici meno convenzionali, che dovrebbero permeare lo spazio che ci circonda, una ricerca diretta viene portata avanti sviluppando strumenti di misura particolarmente sensibili, con tecniche di rivelazione che consentono di registrare e riconoscere le interazioni di queste ipotetiche particelle raccogliendo l'energia da loro rilasciata negli urti con i nucleoni dei rivelatori. Ricerche indirette tendono invece a osservare la materia oscura rivelandone decadimenti particolari di cui molti, secondo quanto suggerito da diversi modelli, prevedono la produzione di neutrini: a questo scopo vengono progettati grandi rivelatori installati in laboratori siti in caverne sotterranee o circondati da rilevanti volumi d'acqua, in modo da schermarli dai raggi cosmici che disturberebbero l'esperimento creando eventi parassiti. Non va infine dimenticato il ruolo degli acceleratori di particelle, progettati per creare in laboratorio tutte le possibili forme di materia in modo da poterne studiare le proprietà, utilizzando apparati sperimentali di una complessità tale da apparire come vere e proprie sfide tecnologiche. Da questo rapido esame degli sviluppi nello studio del cosmo dovrebbe emergere chiaramente che la cosmologia, pur nei limiti che le spettano quale scienza osservativa e non sperimentale e grazie in particolare allo sviluppo impressionante dei metodi di osservazione, è entrata in interazione strettissima con la fisica delle interazioni fondamentali. Questo configura una situazione straordinaria perché, mentre il cosmo ha dimensioni dell'ordine della decina di miliardi di anni-luce, la struttura profonda delle interazioni dovrebbe svelarsi se fosse possibile studiare la materia risolvendo distanze inferiori a ro- 33 cm. Ciò significa che le leggi della fisica, o, se si vuole, la fantasia di chi le studia, spaziano ormai su un campo la cui vastità è misurata in 6o ordini di grandezza. Un atteggiamento prudente porterebbe ad ammettere che ben poco si sa delle proprietà della materia a distanze inferiori a ro- 17 cm e circa la storia dell'universo nei suoi primi secondi di vita. Resta il fatto che le riflessioni dei fisici teorici e, seppur con evidenti vincoli tecnologici, anche quelle dei fisici sperimentali vengono spinte a superare le differenze abissali di scala sopra indicate. Non è possibile in 330
www.scribd.com/Baruhk
La fisica delle interazioni fondamentali, della materia e del cosmo
questo momento formulare un pronostico circa le possibilità di successo della ricerca scientifica indirizzata verso quei confini. Si può invece esprimere l'auspicio che la ricerca possa continuare con la libertà di cui oggi gode e con l'obiettivo di raggiungere sempre nuovi orizzonti.
331
www.scribd.com/Baruhk
CAPITOLO
NONO
I progressi dell'astrofisica DI
FRANCESCO
I
BERTOLA
• PREMESSA
La ricerca in astrofisica della prima metà di questo secolo è scandita da poche, ma fondamentali tappe, che hanno segnato l'inizio di una nuova era nella storia della scienza. Nel 1926 Edwin Hubble (1889-1953) misurava la distanza dalla Terra della nebulosa di Andromeda e ne stabiliva la natura di insieme di stelle simile a quello di cui fa parte il Sole, la Via Lattea. Prendevano così consistenza scientifica le formidabili intuizioni di Kant. Pochi anni più tardi, nel 1929, lo stesso Hubble enunciava quella che forse è la legge di natura più profonda e ricca di significati: le galassie si allontanano da noi con una velocità che è proporzionale alla loro distanza. La portata cosmologica di questa legge è stata pienamente compresa solo quando è stata collegata con i risultati ottenuti nel 1922 di A. A. Friedmann, il quale, risolvendo le equazioni della relatività generale applicata all'intero universo, scopriva che esso è caratterizzato dall'espansione. Aveva così inizio la cosmologia scientifica, la cui concezione dell'universo rispetto a quelle precedenti è caratterizzata dalla mancanza di stazionarietà: l'universo è in continuo divenire e cambia continuamente d'aspetto. Un altro risultato astrofisico di grande rilevanza è quello ottenuto nel 1938 da Hans Bethe (n. 1906), che ha descritto le reazioni termonucleari di fissione che convertono l'idrogeno in elio all'interno delle stelle, individuando così la sorgente dell'energia irradiata dal Sole e dalle stelle e gettando le basi per una profonda comprensione dell'evoluzione stellare. La seconda metà del secolo ha visto un'esplosione delle ricerche di astrofisica, resa possibile dalle nuove tecnologie sviluppatesi nel periodo bellico e postbellico. Queste hanno permesso non solo di esplorare più a fondo la stretta finestra ottica che in passato era stata l'unica accessibile all'uomo, ma soprattutto di allargare l'esplorazione degli oggetti celesti alle regioni dello spettro della radiazione elettromagnetica inaccessibili all'occhio a causa dell'effetto schermante dell'atmosfera terrestre. L'unicità della finestra a cui è sensibile l'occhio umano, sia nudo sia aiutato dal telescopio, è dovuta alla selezione naturale, che ha reso l'organo della vista particolarmente sensibile al picco della emissività del Sole, situato nella zona gialla dello spettro. Dopo la rivelazion~ delle onde elettromagnetiche, si sta facendo un grande 332
www.scribd.com/Baruhk
I progressi dell'astrofisica
sforzo per rivelare un altro tipo di onde, quelle gravitazionali, emesse da masse in movimento. Nuove astronomie sono anche quelle che si basano sul rilevamento di particelle come i neutrini emessi dai corpi celesti. Prima di illustrare i risultati ottenuti dall'astrofisica nello studio dei corpi celesti converrà brevemente descrivere le nuove astronomie sviluppatesi nella seconda metà di questo secolo e i grandi passi avanti realizzati nell'astronomia ottica e nell' esplorazione del sistema solare. II
·
LE
NUOVE
TECNICHE
ASTRONOMICHE
r) La radioastronomia
La radioastronomia esplora le radiazioni provenienti dagli astri e aventi una lunghezza d'onda che varia da 0,35 millimetri a circa 150 metri. Nonostante le prime onde radio provenienti dal cosmo fossero già state rivelate agli inizi degli anni trenta, è solo dopo la seconda guerra mondiale che questo ramo dell'astronomia ha ricevuto un forte impulso grazie alle nuove conoscenze nel campo dell'elettronica, delle radiotelecomunicazioni e delle tecnologie radar che si erano nel frattempo sviluppate. L'atmosfera è trasparente nella regione spettrale caratterizzata da lunghezze d'onda comprese tra r mm e 20 m; per questa ragione le osservazioni in questa banda vengono effettuate dal suolo, mentre per osservare lunghezze d'onda a frequenze più alte o più basse bisogna uscire dall'atmosfera utilizzando tecniche spaziali. Si possono distinguere due tipi di radioastronomia: quello che rivela singole righe o bande molecolari, generalmente in emissione, e quello che ci mostra lo spettro continuo. La radioastronomia delle righe ha avuto inizio con la scoperta, nel 1951, della riga con lunghezza d'onda di 21 cm emessa dall'idrogeno neutro, la cui presenza era stata prevista teoricamente qualche anno prima. Essendo l'idrogeno neutro distribuito abbondantemente nella nostra galassia e nelle galassie esterne, è stato possibile studiare la sua distribuzione - e in particolare la sua cinematica misurando lo spostamento della riga per effetto Doppler. Successivamente sono state scoperte le righe emesse da molecole come il radicale ossidrilico OH, l'ammoniaca e la formaldeide. Fino a oggi sono state individuate mediante i radiotelescopi operanti alle lunghezze d'onda centimetriche, millimetriche e submillimetriche circa una novantina di molecole presenti nel gas interstellare, alcune delle quali abbastanza complesse in quanto formate da parecchi atomi. La radioastronomia del continuo ha permesso di stabilire che la maggior parte delle sorgenti emette uno spettro non termico, diverso cioè dallo spettro tipico del corpo nero a varie temperature, come è invece il caso delle stelle. Questa radiazione, detta di sincrotrone, è prodotta da elettroni relativistici viaggianti a velocità prossime a quella della luce e spiraleggianti lungo le linee di forza di un campo magnetico. 333
www.scribd.com/Baruhk
I progressi dell'astrofisica
2) !;astronomia X e gamma
Non potendo raggiungere il suolo, i raggi X provenienti dagli oggetti celesti devono essere osservati fuori dell'atmosfera. Nel 1949 fu lanciato il primo razzo che permise di rivelare l'emissione X del Sole. Nel 1962 un altro razzo in volo notturno raccolse la radiazione X proveniente da alcune sorgenti e mise in evidenza la presenza di un fondo diffuso. Il primo satellite artificiale dedicato all'osservazione X del cielo è stato il satellite Uhuru, lanciato nel 1970, che permise un completo esame di tutta la volta celeste: furono individuate le stelle binarie emittenti raggi X e l'emissione diffusa degli ammassi di galassie. Con Uhuru lo studio del cielo nel dominio spettrale X diventava un vero e proprio capitolo dell'astrofisica. Il satellite Einstein, messo in orbita nel 1978 e dotato della possibilità di ottenere vere e proprie immagini, estese i risultati precedentemente ottenuti e aprì la via alla moderna astronomia dei raggi X. Per avere un'idea dei progressi realizzati da questa scienza basterà ricordare che nel 1965 le sorgenti astronomiche X rivelate erano appena ro, mentre trent'anni dopo ne erano catalogate 10o.ooo grazie ai sedici satelliti dedicati allo studio della radiazione X e ai numerosi esperimenti realizzati a bordo di missioni spaziali. Tra i risultati di maggior rilievo ottenuti con satelliti X vi sono l'individuazione di sistemi stellari doppi, in cui un compagno è degenerato in un buco nero, e la scoperta di estesi aloni gassosi in cui sono immersi gli ammassi di galassie, scoperta rilevante soprattutto ai fini del problema della materia oscura. La radiazione X emessa da questi aloni è dovuta a transizioni di tipo free-free in un gas ad altissima temperatura (dell'ordine di 10-100 milioni di gradi kelvin). Se l'energia dei fotoni è superiore a 100 KeV si entra nel dominio dei raggi gamma. Questi raggi sono stati rilevati, a partire dagli anni sessanta, con rivelatori posti in orbita. L'emissione gamma dà luogo a uno spettro continuo dovuto a collisioni tra atomi e tra molecole. Si osservano anche righe di emissione, come nel caso dei raggi X. I raggi gamma provengono da sorgenti molto energetiche, quali i resti di supernovae e i quasar, e costituiscono un fondo diffuso in corrispondenza della Via Lattea. 3) !;astronomia dell'ultravioletto
Già da terra è stato possibile estendere l'astronomia ottica fino al limite della trasmissione dell'atmosfera terrestre, che cade a circa 3300 A. Per poter intercettare lunghezze d'onda più basse è stato necessario attendere l'avvento dell'astronomia spaziale che ha permesso di mettere in orbita telescopi sensibili fino a 1200 A e, più recentemente, fino a quasi 900 A. L'interesse dello studio dei corpi celesti nell'ultravioletto sta nel fatto che a questa lunghezza d'onda emettono soprattutto gli oggetti caldi: per esempio, stelle con temperatura superficiale superiore ai 2o.ooo gradi kelvin. Uno dei satelliti più attivi nello studio dell'ultravioletto è l'ruE (International Ultraviolet Explorer), lanciato nel 1978 e tuttora operante. È dotato di un telesco334
www.scribd.com/Baruhk
I progressi dell'astrofisica
pio con specchio di 45 cm di diametro. Di gran lunga più potente è il telescopio che costituisce l'HsT (Hubble Space Telescope), lanciato nel I990. Il diametro dello specchio è di 2,40 m e numerosi sono gli strumenti che possono essere posti al piano focale per vari tipi di analisi, non solo nell'ultravioletto, ma anche nel visibile e nell'infrarosso. Oltre a raccogliere radiazioni che non arrivano sulla superficie della Terra, l'HST è in grado di fornire immagini ad altissima risoluzione (o,I secondi d'arco) per la mancanza di turbolenza atmosferica. Grazie a queste sue caratteristiche, l'HST sta rivelando aspetti del tutto nuovi dell'universo. Si tratta della più grande impresa astronomica di tutti i tempi, il cui costo nel I985 era stimato in un miliardo di dollari. 4) !;astronomia dell'infrarosso
L'atmosfera trasmette solo in parte la radiazione infrarossa. Vi sono due finestre - la prima tra I J.l e 30 J.l e la seconda tra 350 J.l e I mm di lunghezza d'onda che possono essere utilizzate con telescopi posti al suolo, mentre per l'intervallo 30 J.I- 350 J.l è necessario servirsi di satelliti artificiali. Tra questi sono da ricordare l'IRAs (ln/raRed Astronomica! Satellite) lanciato nel I983 e il COBE (COsmic Background Explorer) messo in orbita nel I989. Il primo ha permesso di catalogare 25o.ooo sorgenti infrarosse, mentre il secondo ha rivelato le fluttuazioni della radiazione cosmica di fondo legate all'origine delle galassie. Lo studio infrarosso degli astri è molto importante laddove è presente la polvere interstellare, sia perché quest'ultima, riscaldata dalla radiazione incidente, la riemette nell'infrarosso, sia per il fatto che l'effetto assorbente della polvere diminuisce alle grandi lunghezze d'onda. Tipici oggetti dell' osservazione infrarossa sono i nuclei delle galassie e le regioni di formazione stellare. 5) !;astronomia della regione visibile
La costruzione nel I950 del telescopio con specchio di 5 m di diametro installato sul Monte Palomar in California ha segnato la fine dell'epoca in cui si cercava di raccogliere la maggior quantità di luce possibile utilizzando specchi parabolici di diametro sempre più grande. Il rivelatore usato era la lastra fotografica, la cui efficienza quantica, cioè la frazione di fotoni effettivamente impiegati per costruire l'immagine, era inferiore all'I per cento. Gli anni sessanta e settanta hanno visto lo sviluppo di rivelatori diversi dall'emulsione fotografica e con efficienze di gran lunga superiori; tutti gli sforzi sono stati perciò indirizzati al miglioramento del ricettore anziché alla costruzione di specchi più grandi. Solo recentemente, essendo stati raggiunti i massimi livelli nella realizzazione dei rivelatori, è cominciata la corsa ai telescopi con specchi di diametro maggiore. Dagli anni novanta sono entrati in funzione i primi telescopi della classe 8-ro m e sono stati progettati telescopi con aperture equivalenti fino a 16 metri, risultanti dall'accostamento di più specchi. Gli ingenti investimenti necessari per realizzare apparecchi di così grandi dimensioni hanno spinto a una accurata ricerca dei migliori siti astronomici del Pianeta dove instal335
www.scribd.com/Baruhk
I progressi dell'astrofisica
lare queste costose strumentazioni, allo scopo di utilizzarle al meglio. Caratteristiche di questi luoghi sono la grande percentuale di notti serene, la mancanza di umidità nell'aria e la tranquillità dell'atmosfera, in modo da ridurre al minimo il deterioramento dell'immagine. 6) I.:astronomia dei raggi cosmici
I raggi cosmici sono costituiti per la maggior parte da nuclei atomici dotati di grande energia cinetica. Sono di origine extraterrestre e quando interagiscono con gli strati più alti dell'atmosfera producono la cosiddetta radiazione secondaria. È però la radiazione primaria a interessare l'astrofisica, che ne indaga in particolare l'origine. Satelliti orbitanti hanno permesso di studiare la composizione e lo spettro di energia dei raggi cosmici; i raggi più energetici vengono studiati anche dal suolo con batterie di telescopi che rivelano l'emissione di luce Cerenkov. Una proprietà interessante della distribuzione dell'energia delle particelle costituenti i raggi cosmici è che tale distribuzione è molto simile a quella che viene ipotizzata nelle sorgenti astronomiche di radiazione di sincrotrone. Si ritiene che i raggi cosmici primari siano di origine galattica e, molto probabilmente, anche extragalattica. Rimane ancora da chiarire il meccanismo con cui vengono accelerati. 7) I.:astronomia del neutrino
I neutrini sono particelle elementari caratterizzate da una sezione d'urto piccolissima; questa particolarità rende difficile la loro individuazione. In astrofisica, i neutrini sono legati alle reazioni nucleari che avvengono nel Sole e nelle stelle oltre che a tutti i fenomeni ad alta energia, come l'esplosione delle supernovae, le stelle binarie compatte e i nuclei attivi delle galassie; secondo alcune ipotesi, i neutrini potrebbero anche essere legati alla materia oscura. Per l'osservazione dei neutrini si usano generalmente ambienti collocati in profondità, in modo che il terreno sovrastante serva da schermo per le particelle cariche generate dai raggi cosmici nell'atmosfera. Per avere una buona probabilità di rivelazione, il bersaglio è costituito da grandi masse di materiale a cui sono accoppiate batterie di sensori. Sono quasi una ventina gli esperimenti in corso per la rivelazione di neutrini. Un grande successo dell'astronomia del neutrino è stato ottenuto nel 1987, quando una supernova è esplosa abbastanza vicino alla Terra, nella Grande Nube di Magellano. Ben due « telescopi » per neutrini hanno rivelato il flusso di queste particelle provenienti dal core stellare della supernova. 8) I:astronomia delle ondè gravitazionali
Dalla teoria della relatività consegue che una massa che subisce un'accelerazione genera onde gravitazionali, in analogia con l'emissione di onde elettromagnetiche da parte di cariche elettriche accelerate. Le sorgenti più adatte per rivelare le onde gravitazionali sono, date le grandi energie in gioco, quelle astrofisiche. Peno-
www.scribd.com/Baruhk
I progressi dell'astrofisica
meni come le stelle binarie strette, la formazione di buchi neri quale stadio finale dell'evoluzione di stelle, il collasso associato all'esplosione di supernovae sono tipiche sorgenti di intense onde gravitazionali. L'evidenza di queste onde è molto significativa, ma finora solo indiretta. Si è potuta misurare la perdita di energia in una stella binaria con pulsar e si è constatato che questa perdita è proprio quella prevista dalla teoria della relatività a causa dell'emissione di onde gravitazionali. Il grande problema dell'astrofisica contemporanea è quello di rivelare queste onde. Allo scopo sono stati già da tempo realizzati esperimenti tendenti a misurare le oscillazioni di masse che entrano in risonanza con la radiazione gravitazionale proveniente dagli astri. La speranza è che, con il continuo perfezionamento delle tecniche di rivelazione, non sia lontano il momento in cui le onde gravitazionali saranno messe in evidenza. III
·
LA
RICERCA
ASTRONOMICA
CONTEMPORANEA
Da questa breve rassegna delle nuove astronomie è possibile rendersi conto degli enormi investimenti che sono stati fatti per lo sviluppo delle scienze astronomiche. Nel volgere di pochi decenni l'astronomia e l'astrofisica (oggi la distinzione tra le due discipline è praticamente irrilevante) sono divenute, da scienze coltivate da pochi in cui l'unico investimento necessario era un buon telescopio (che tra l'altro ha la caratteristica di invecchiare molto lentamente tanto che sono ancora in uso telescopi costruiti all'inizio del secolo!), a scienze di grandissimo respiro, che fanno uso delle tecnologie più avanzate in tutti i settori e che spesso hanno contribuito al progresso delle tecnologie stesse. L'astrofisica è diventata ciò che negli Stati Uniti viene chiamata «big science », una scienza cioè che richiede somme ingenti per la strumentazione e che ha dovuto subire una profonda ristrutturazione per essere pienamente efficiente. Di fondamentale importanza per lo sviluppo dell' astrofisica è stata la diffusione dei sistemi informatici, indispensabili sia nella riduzione dei dati che in quantità crescente vengono forniti dai vari raccoglitori dell'informazione, sia nella costruzione e simulazione di modelli teorici. I temi di fondo di cui si occupa la ricerca astronomica contemporanea possono essere divisi in quattro grandi campi di indagine. Procedendo in ordine di dimensioni, il primo campo riguarda gli studi del sistema solare, la sua origine, l'origine della vita. Il secondo campo di indagine dell'astrofisica è quello dell'origine e dell'evoluzione delle stelle. Le stelle a loro volta, spesso associate a gas e polveri, costituiscono le galassie, che possono essere considerate le strutture fondamentali dell'universo: lo studio delle proprietà fisiche delle galassie, dei processi della loro formazione ed evoluzione, della loro distribuzione nello spazio e della velocità di allontanamento costituisce il terzo capitolo fondamentale della ricerca astronomica. Il quarto e ultimo campo di indagine a cui questa ricerca conduce è la cosmologia, che riguarda l'universo nella sua totalità. 337
www.scribd.com/Baruhk
I progressi dell'astrofisica IV ·
L'ESPLORAZIONE
DEL
SISTEMA
SOLARE
Forse in nessun altro campo le scoperte si sono susseguite così rapidamente come nello studio del sistema solare, grazie allo sviluppo delle tecniche spaziali che hanno permesso l'esplorazione da vicino di pianeti e satelliti, la collocazione di sonde sulla loro superficie e, addirittura, la ricognizione diretta da parte dell'uomo, come è avvenuto nel caso della Luna. Dalla fine degli anni cinquanta, più di trenta missioni spaziali (la più recente è quella della sonda Galileo che nel dicembre 1995 è entrata nell'atmosfera di Giove), hanno rivelato proprietà fisiche e geologiche dei vari corpi del sistema solare (pianeti, satelliti, asteroidi, comete): una quantità enorme di dati che ha lo scopo di aiutare a capire l'origine e l'evoluzione del sistema solare. Questo studio da un lato permette di comprendere anche quello che può essere avvenuto nelle altre stelle, dall'altro dovrebbe consentire di inquadrare il fenomeno «vita», presente sulla Terra, nel contesto più generale di tutto l'universo. A questo proposito va ricordato lo sviluppo in tempi recenti di una nuova disciplina chiamata bioastronomia che ha lo scopo di studiare l'origine, l'evoluzione e l'espansione della vita nell'universo. Si tratta di una disciplina in cui convergono astronomia, chimica, biologia e geologia. I problemi cruciali su cui la bioastronomia indaga riguardano i processi che hanno portato alla formazione di· un pianeta e alla comparsa della vita su di esso e la possibilità che la vita si espanda nell'universo. A questo aspetto delle ricerche si riallacciano gli sforzi che sfruttano le tecnologie più raffinate nel campo delle telecomunicazioni per rivelare segnali che possano essere stati inviati da altre civiltà presenti nell'universo. I dati fino a oggi accumulati permettono di formulare un quadro abbastanza preciso, anche se ancora incompleto, di come si sia formato il sistema solare. Si tratta di un problema fondamentale dell'astrofisica, che ha le sue radici nelle speculazioni di Kant e Laplace sulla ipotesi nebulare. Si ritiene che l'origine del Sole sia identica a quella di tutte le stelle di tipo solare; si può così comprendere la formazione del Sole studiando i processi che attualmente danno origine alle stelle. Queste si formano in regioni delle galassie ricche di nubi di gas interstellare, composte per la maggior parte da due elementi primordiali, l'idrogeno e l'elio (in percentuale rispettivamente del 77% e 21%); il rimanente 2% è rappresentato da grani solidi - con dimensioni tipiche inferiori al micron - di polvere cosmica costituita da elementi pesanti. Essendo queste nubi molto fredde, la loro pressione termica non è in grado di controbilanciare l'effetto della gravità che tende a far collassare il materiale interstellare. Nel volgere di un milione di anni una nube collassa fino a dar luogo a quella che viene chiamata una protostella. Il materiale, collassando, si riscalda; aumentano la pressione e la temperatura (sino a valori di ro milioni di gradi kelvin), si innescano reazioni termonucleari fino a che si genera una situazione di equilibrio tra gravità, pressione gassosa e pressione di radiazione. La stella è così formata. La formazione dei pianeti, dopo quella della stella centrale, dipende dal
www.scribd.com/Baruhk
I progressi dell'astrofisica
momento angolare della nube di partenza. Se essa è dotata di movimento di rotazione si forma una estesa struttura schiacciata, a disco, che occupa il piano equatoriale della stella centrale; ciò è dovuto al fatto abbastanza intuitivo che, perpendicolarmente all'asse di rotazione, il processo di collasso viene arrestato dalla forza centrifuga. È da notare che il valore del momento angolare della nube di partenza è abbastanza critico per la formazione della nebulosa solare; se fosse troppo grande si avrebbe la formazione di una stella doppia, un tipo di oggetti frequente tra le stelle. Nella formazione dei pianeti giocano un ruolo essenziale le polveri tramite processi di coagulazione, sedimentazione e accumulazione. La coagulazione avviene quando le particelle di polvere vengono a collidere e danno luogo a grani con dimensioni che vanno dal centimetro al metro. Il fenomeno della sedimentazione porta il materiale solido a formare un disco molto sottile, più sottile di quello gassoso. È in questo disco che, a causa di fenomeni di instabilità gravitazionale, si formano corpi solidi assai grandi (con dimensioni di circa un chilometro), detti planetesimi. Si determina così una situazione in cui il sottile disco, formato dalle polveri, è costituito da migliaia di miliardi di planetesimi. Inizia in questa fase il fenomeno dell' accumulazione di questi corpi. In un primo periodo, che ha la durata di diecimila anni, i planetesimi si fondono con quelli più vicini formando corpi con diametro di circa 500 km, detti embrioni planetari. Successivamente e in un tempo molto più lungo (dell'ordine di cento milioni di anni), gli embrioni si scontrano a causa delle forze gravitazionali irregolari esercitate reciprocamente e danno origine al pianeta vero e prorio. Fenomeni come la formazione della Luna possono essere spiegati con l'impatto di due embrioni particolarmente massicci. Con il processo qui descritto viene spiegata la formazione dei cosiddetti pianeti terrestri, che sono, oltre alla Terra, Mercurio, Venere e Marte. Per Giove, Saturno, Urano e Nettuno (pianeti gioviani) si ammette che il nucleo solido attragga a sé anche il gas della nebulosa solare, in modo che si formino gli estesi inviluppi gassosi che caratterizzano questi pianeti. Mentre nel processo di formazione i pianeti hanno subito un'evoluzione, i corpi minori del sistema solare, come le comete e gli asteroidi, sono i planetesimi che non si sono fusi e che pertanto non hanno subito processi chimici di trasformazione; la loro composizione chimica dovrebbe perciò essere ancora quella della nebulosa primordiale. La determinazione dell'età delle meteoriti più antiche e gli studi sull'evoluzione delle stelle permettono di stabilire che l'età del sistema solare è di 4,7 miliardi di anni. La massa dei pianeti rappresenta solo 1'1% della massa del Sole. La presentazione dell'enorme mole di dati ottenuti in tempi recenti per ogni pianeta e satellite del sistema solare così come per le comete e gli asteroidi va oltre lo scopo di questa trattazione. Essa tuttavia costituisce uno dei capitoli più estesi della moderna astronomia. L'unica via per provare che il modello di formazione dei sistemi planetari appena descritto è pienamente valido e soprattutto per stabilire l'e339
www.scribd.com/Baruhk
I progressi dell'astrofisica
sistenza di altri sistemi planetari è quella di osservare le altre stelle per vedere se sono dotate di pianeti e, nel caso di stelle in formazione, se sono accompagnate dal disco protoplanetario. Questa seconda possibilità è stata indagata, con risultati molto incoraggianti, dapprima con il satellite infrarosso IRAS e, più recentemente, con l'HsT. Il 6o% delle stelle con età inferiore a 3 milioni di anni (cioè giovanissime) ha rivelato un eccesso di radiazione infrarossa rispetto a ciò che si attendeva. Il risultato è stato interpretato come dovuto alla presenza di dischi protoplanetari, responsabili appunto dell'eccesso infrarosso essendo le loro polveri emettitrici a queste lunghezze d'onda. Immagini dirette di dischi protoplanetari sono state invece fornite dall'HST, che ha mostrato un'alta percentuale di questi oggetti in campi stellari ricchi di stelle in formazione. Vi è la speranza, osservando protostelle e stelle di diversa età, di poter studiare in dettaglio l'evoluzione dei dischi protoplanetari fino alla formazione dei singoli pianeti. La rivelazione di pianeti gravitanti attorno a stelle è invece un problema molto più complesso. Essa potrebbe essere ottenuta in modo diretto fotografando l'immagine dei pianeti attorno alle stelle, ma l'impresa è ardua a causa della debole intensità luminosa del pianeta rispetto alla stella. Per esempio, il Sole è un miliardo di volte più brillante del pianeta Giove nella zona visibile dello spettro. Si coltiva attualmente la speranza di poter rilevare nell'infrarosso - dove la differenza tra la luminosità della stella e quella del pianeta è minore - pianeti splendenti come Giove e si stanno studiando strumenti ottici particolarmente adatti allo scopo. La rivelazione indiretta di pianeti può essere effettuata mettendo in evidenza i cambiamenti di posizione a cui va soggetta una stella quando ruota con un altro corpo invisibile attorno al baricentro comune, oppure studiando lo spostamento delle righe spettrali della stella causato da questo movimento. Questi metodi permettono allo stato attuale di rivelare pianeti con massa pari a decine di volte quella di Giove e, finora, non hanno fornito risultati positivi. È molto probabile, tuttavia, che, grazie al fervore con cui vengono condotte queste ricerche, i prossimi decenni permetteranno finalmente di dare una conferma scientifica alle grandi intuizioni di Giordano Bruno. V
· L'ASTROFISICA DELLE STELLE
Tra le grandi conquiste dell'astrofisica di questo secolo vi è quella di aver compreso, con grande precisione e ricchezza di dettagli, l'evoluzione delle stelle, dall'epoca della loro formazione fino agli ultimi stadi della loro vita. Abbiamo visto nel precedente paragrafo come una stella si forma per contrazione gravitazionale di una nube composta da gas e polveri. Nel momento in cui la temperatura centrale raggiunge i ro-15 miliardi di gradi si innescano le reazioni termonucleari che portano alla fusione dell'idrogeno e consentono alla massa gassosa di raggiungere la sua prima configurazione di equilibrio. Nelle fasi precedenti, quelle di protostella, l'a-
www.scribd.com/Baruhk
I progressi dell'astrofisica
stro è caratterizzato da erratiche e a volte brusche variazioni di splendore. È la cosiddetta fase di presequenza. Una volta formatasi, la stella si porta infatti sulla sequenza principale del diagramma di Hertzsprung-Russell, in cui sono rappresentate le luminosità delle stelle in funzione della loro temperatura superficiale. Si è potuto constatare che i punti rappresentativi delle stelle appena formatesi non occupano a caso le varie regioni del diagramma, ma definiscono una ben precisa relazione tra la temperatura e la luminosità (più alta è la temperatura, più intensa è la luminosità) chiamata sequenza principale. Poiché esiste una relazione di proporzionalità tra la massa di una stella e la sua luminosità intrinseca, si può affermare che le stelle più calde della sequenza principale sono anche le più massicce. L'importante risultato che ha permesso il progresso delle teorie sull'evoluzione stellare consiste nella comprensione del fatto che le stelle evolvendosi si muovono lungo particolari tracce nel diagramma di Hertzsprung-Russell. È pertanto compito dell'astrofisica osservativa misurare gli spostamenti in questo diagramma, mentre spetta all'astrofisica teorica il compito di calcolare, mediante modelli, le tracce evolutive delle stelle nello stesso diagramma. Il confronto tra dati sperimentali e modelli teorici permette di stabilire come evolve una stella. Consideriamo ora come è strutturata una stella e come avviene l'emissione dell' energia. La stella è una massa gassosa in cui il gas non si disperde, come avviene in ambiente terrestre, a causa della forza di gravità che lo tiene unito. La forza gravitazionale è diretta verso l'interno, mentre la pressione gassosa, che dipende dalla temperatura del gas e che è rivolta verso l'esterno, tenderebbe a disperdere il gas stesso. A questa pressione se ne aggiunge una seconda, detta pressione di radiazione, dovuta ai fotoni che sono prodotti nelle reazioni termonucleari centrali e che fuoriescono dalle stelle. Quando queste tre forze si compensano, la stella è in equilibrio. Tre meccanismi determinano il trasferimento dell'energia dalla regione nucleare, dove viene prodotta, all'esterno: la conduzione, la convezione e il trasporto radiativo. Il primo processo interessa solo le stelle nella fase terminale della loro evoluzione, quando il gas è degenere. La convezione implica il trasporto di masse calde dall'interno verso l'esterno e produce un mescolamento tra i gas nucleari e quelli superficiali. Di gran lunga più efficiente è il trasporto radiativo, in cui i fotoni prodotti nel nucleo, dopo essersi scontrati con un atomo in ogni centimetro del loro percorso, riescono a fuoriuscire. Il tempo impiegato per questo tragitto è di circa dieci milioni di anni. Di grande importanza è poi l'opacità del mezzo che la radiazione deve attraversare quando si considerano i delicati meccanismi che permettono alla stella di restare in equilibrio. Se, per esempio, le reazioni termonucleari producono più energia di quella che il mezzo opaco riesce a trasmettere, la stella si gonfia; in questo modo diminuisce l' opacità e l'energia in eccesso può fuoriuscire liberamente. Ma l'espansione della stella provoca anche effetti nel nucleo, dove avvengono le reazioni termonucleari, riducendo il ritmo di queste ultime. Così la 341
www.scribd.com/Baruhk
I progressi dell'astrofisica
stella si autoregola, ritrovando la propria configurazione di equilibrio. Un processo inverso si verifica allorquando l'emissione nucleare tende a diminuire. Dai modelli teorici dell'evoluzione delle stelle, confrontati con i dati di osservazione, si deduce che il parametro fondamentale di una stella, quello da cui dipenderà la sua storia futura, è la sua massa. Si dimostra infatti che, quando una stella ha trasformato il 12% del proprio idrogeno in elio nelle reazioni di fusione termonucleare che avvengono nel nucleo, si genera una situazione di instabilità per cui, nel diagramma di Hertzsprung-Russell, essa abbandona la sequenza principale spostandosi verso temperature superficiali più fredde. Le prime stelle a lasciare la sequenza principale sono le più massicce, che sono anche quelle che hanno un'evoluzione più rapida perché nelle fasi di contrazione, a causa della grande massa, la temperatura centrale sale di molto e pertanto la reazione di fusione dell'idrogeno si svolge con maggior rapidità. Si può calcolare che una stella come il Sole rimane sulla sequenza principale per circa dieci miliardi di anni. Al contrario, le stelle con massa superiore a due volte quella del Sole cominciano a diventare instabili dopo un periodo inferiore a cento milioni di anni. Se si considerano, infine, le stelle situate nella parte bassa della sequenza principale, la loro evoluzione è così lenta che l'età dell'universo è ancora troppo giovane per vederle spostarsi dalla sequenza. Vediamo ora di seguire il comportamento di una stella come il Sole, che si trova attualmente nella sequenza principale essendo passati circa 6 miliardi di anni da quando si sono innescate le reazioni termonucleari al suo interno. Il bruciamento dell'idrogeno continuerà ancora per altri 4 miliardi di anni. Già prima di arrivare ai 10 miliardi di anni di età, il Sole comincerà ad aumentare di raggio a causa di un eccesso di radiazione dovuto a una contrazione del nucleo che continuamente si arricchisce di elio. Tra i 10 e i 12 miliardi di anni di vita, si innescano reazioni termonucleari che portano alla fusione dell'idrogeno, non più nel nucleo, ma in un sottile inviluppo che lo avvolge. Continua ancora la contrazione del nucleo e, nel frattempo, le dimensioni della stella aumentano enormemente sino a quando il raggio è 50 volte superiore a quello dello stato iniziale sulla sequenza principale. Essendo la temperatura superficiale della stella diminuita dai 6ooo gradi iniziali a circa 3500, il colore è rossastro: la stella è diventata una gigante rossa. Il continuo collasso del nucleo porta a un innalzamento della sua temperatura fino a valori superiori ai 100 milioni di gradi kelvin. A questo punto, essendo passati tredici miliardi di anni, molto bruscamente iniziano le reazioni termonucleari che portano alla fusione dell'elio per produrre nuclei più pesanti, quali quelli del carbonio e dell'ossigeno. Mentre brucia l'elio la stella subisce rapidi cambiamenti, spostandosi dal ramo delle giganti rosse per poi raggiungerlo di nuovo a fine combustione. Inizia allora un nuovo periodo di instabilità: la stella produce energia non più dal nucleo ma da gusci più esterni, dove continua a bruciare idrogeno ed elio. Si produce a questo punto un fenomeno che si era già lentamente avviato quando la stella si trovava
www.scribd.com/Baruhk
I progressi dell'astrofisica
nella regione delle giganti rosse: la perdita di massa. Si tratta del processo con cui una stella restituisce all'ambiente parte del materiale che la compone. Questo gas, arricchito di elementi pesanti a causa dei processi di fusione, va a costituire il mezzo interstellare in cui avrà inizio la formazione di stelle delle popolazioni successive. La perdita di massa può raggiungere valori pari al 30% della massa originaria della stella. In casi del genere è possibile vedere questi involucri gassosi espulsi dalle stelle sotto forma di strutture sferiche o ad anello che, per la loro somiglianza con i dischi circolari dei pianeti, furono chiamati « nebulose planetarie » dai primi osservatori che utilizzavano il cannocchiale. Dopo la fase di planetaria, la stella collassa raggiungendo nel nucleo valori della densità estremamente alti (pari a un miliardo di chilogrammi per metro cubo). A questi valori della densità la materia è detta « degenere». La pressione che essa esercita per controbilanciare la forza di gravità non è più dovuta alla agitazione dei nuclei, ma a quella degli elettroni. L'interno delle stelle, dove non avvengono più reazioni termonucleari, assomiglia a un grande cristallo che si raffredda lentamente. La stella si chiama «nana bianca » per le sue ridotte dimensioni e per il suo colore biancastro, dovuto a una temperatura superficiale di circa 15.000 gradi che è destinata a diminuire fino allo spegnimento della stella. Se consideriamo l'evoluzione di una stella con massa inferiore a quella del Sole, ci troviamo di fronte a una situazione completamente diversa. Già una stella con massa pari a metà di quella del Sole, una volta bruciato l'idrogeno non riuscirà durante la fase di collasso a raggiungere quella temperatura centrale che porta al bruciamento dell'elio. Pertanto essa non raggiungerà mai la fase di gigante rossa, ma passerà direttamente allo stato di nana bianca nel giro di parecchi miliardi di anni. Per stelle massicce (per esempio con una massa pari a 15 volte quella del Sole) l'evoluzione, oltre a essere molto rapida, è anche molto diversa. La fase di bruciamento dell'idrogeno dura solo Io milioni di anni (un tempo mille volte inferiore a quello impiegato dal Sole) ed è seguita da quella dell'elio. La stella si gonfia fino a raggiungere dimensioni migliaia di volte più grandi di quelle del Sole e, contemporaneamente, la temperatura superficiale si abbassa: la stella diventa una supergigante rossa. Nel nucleo hanno allora inizio le reazioni termonucleari che portano alla fusione del carbonio, da cui si possono formare elementi più pesanti come l' ossigeno, il silicio e il magnesio. Sempre a causa della grande massa della stella, le reazioni continuano fino a che si forma un nucleo di ferro, l'elemento che per le sue caratteristiche di energia di legame rappresenta il risultato finale delle reazioni di fusione. A questo punto incomincia una fase che conduce la stella alla fine della sua evoluzione. Il nucleo collassa a causa della perdita di neutrini che portano rapidamente energia all'esterno. Si verifica la fotodisintegrazione del ferro, che fa collassare ulteriormente il nucleo fino a raggiungere densità per cui la materia è allo stato degenere. Contemporaneamente le reazioni nucleari diventano violente negli strati più esterni, che vengono eiettati nello spazio con una velocità che è superiore 343
www.scribd.com/Baruhk
I progressi dell'astrofisica
alla velocità di fuga. Con l'esplosione la stella è diventata una supernova. La dilatazione degli strati esterni al nucleo è tale che la stella aumenta di splendore nel volgere di pochissimo tempo (misurabile in ore), fino a raggiungere una luminosità che quasi eguaglia quella di tutte le stelle che costituiscono la galassia in cui la supernova è esplosa. L'ultima supernova esplosa nella nostra galassia è quella del 1604, che fu osservata a occhio nudo da Thyco Brahe e da Galileo. Nel 1987 è stata osservata un'altra brillante supernova, anch'essa visibile senza telescopio, nella Grande Nube di Magellano, la galassia più vicina alla nostra. Una volta raggiunto il massimo splendore, che corrisponde alla massima espansione del gas espulso allo stato opaco, la stella perde rapidamente di luminosità a mano a mano che il gas diventa trasparente per effetto della diminuita densità. Alla fine del processo si è in presenza del cosiddetto resto di supernova, un involucro gassoso che continua a dilatarsi e che va a occupare lo spazio interstellare. A questo punto ci si domanda quale tipo di stella sia quella sopravvissuta alla esplosione di supernova. Abbiamo già visto che una stella come il Sole finisce come nana bianca. È possibile dimostrare che questo avviene solo se la massa finale della stella non eccede di 1,4 volte la massa del Sole. Se invece intervengono fenomeni che portano a una maggiore compressione della stella gli elettroni si combinano con i protoni dei nuclei per formare neutroni, i quali esercitano una pressione verso l'esterno che controbilancia la gravità (anche in questo caso si è in presenza di un gas degenere). Una stella di neutroni ha un raggio di appena 15 km e conseguentemente una densità altissima (miliardi di tonnellate per centimetro cubico). L'esistenza di queste stelle era già stata postulata negli anni trenta, ma fu necessario attendere il 1967, con la scoperta della prima pulsar, per identificarle in cielo e per rendersi conto che esse costituiscono la fase finale dell'esplosione di una stella massiccia come supernova. Il fenomeno pulsar consiste nell'emissione da parte di una stella di impulsi ritmici che vengono rivelati soprattutto nel dominio delle radioonde. Le frequenze di questi impulsi variano da una pulsazione ogni qualche millesimo di secondo a una pulsazione ogni qualche secondo. Il fenomeno viene spiegato con la rapida rotazione di una stella di piccole dimensioni come per l' appunto è una stella di neutroni. La rapida velocità di rotazione, che ha proprio la frequenza delle pulsazioni osservate, è possibile se si considera una stella già dotata in partenza di un momento angolare, che si conserva durante il collasso facendo aumentare notevolmente la frequenza di rotazione. Il collasso produce un forte aumento del campo magnetico presente in tutte le stelle. Le linee di forza di tale campo definiscono un asse magnetico che generalmente non coincide con l'asse di rotazione della stella. È proprio lungo l'asse magnetico che avviene l'emissione delle onde rivelate dai radiotelescopi: ruotando, la stella emette lungo la direzione dell' asse magnetico, in modo analogo a quello di un faro. Se l'osservatore ha la fortuna di essere intercettato da questa radiazione, ha la possibilità di vedere la stella 344
www.scribd.com/Baruhk
I progressi dell'astrofisica
variare di splendore con la frequenza della rotazione. Se invece l'osservatore non viene a trovarsi nella regione spazzata dall'asse magnetico, il fenomeno pulsar non sarà osservato. È da notare che sulla superficie della stella, in corrispondenza dell'asse magnetico, si creano due calotte molto calde che raggiungono una temperatura di IO milioni di gradi ed emettono nel dominio dei raggi X. Per questa ragione il fenomeno pulsar è anche osservabile con i telescopi a raggi X operanti su satelliti al di fuori dell'atmosfera. Le stelle di neutroni possono essere anche membri di sistemi binari di stelle (la formazione di stelle doppie e multiple è fenomeno abbastanza comune). Se una delle due è una stella massiccia, subisce una rapida evoluzione e in breve tempo può diventare una stella di neutroni, otticamente invisibile, mentre la compagna è in uno stadio evolutivo per cui è facilmente visibile. Questo tipo di binarie è identificabile con l'osservazione nel dominio X. Infatti, nella situazione appena descritta, si verifica che la stella di neutroni attira verso di sé il gas della compagna e converte la sua energia gravitazionale in raggi X. Attorno alla stella di neutroni si forma il cosiddetto disco di accrescimento, costituito dal materiale prelevato dalla compagna visibile e destinato a essere catturato. Si possono così osservare spettroscopicamente le oscillazioni delle righe spettrali della stella visibile e le oscillazioni del periodo della stella a neutroni, entrambe dovute al moto di rotazione di una stella attorno all'altra. Inoltre, si possono determinare le masse delle due stelle, e in particolare quella della stella invisibile, che risulta essere proprio quella tipica che ci si aspetta per le stelle di neutroni. Supponiamo ora che una stella di neutroni possa raggiungere, al massimo, una massa pari a tre volte quella del Sole: cosa succede quando il residuo di un'esplosione stellare è superiore a questo limite? In questo caso la gravità è tale che non si possono produrre pressioni così alte da raggiungere una situazione di equilibrio, come nel caso delle nane bianche o delle stelle di neutroni. La materia è destinata a collassare fino in fondo, sino alla cosiddetta singolarità e alla formazione di un buco nero. Già Pierre-Simon de Laplace (1749-1827) era arrivato a intuire la possibilità di « corps obscurs », nel caso in cui, comprimendo un oggetto, si arriva a ottenere una gravità superficiale tale da impedire che anche un raggio di luce possa sfuggire. Non appena annunciata la teoria della relatività, l'astrofisico tedesco Karl Schwarzschild (1873-1916) studiò il problema e stabilì il raggio caratteristico (che porta il suo nome) entro il quale la radiazione non è in grado di fuoriuscire. Si deve all'astrofisica l'aver materializzato questo concetto, mostrando che fisicamente un buco nero - termine introdotto nel 1968 dal fisico statunitense J.A. Wheeler (n. I9II) - può formarsi come risultato del collasso di una stella di massa superiore a circa tre volte quelb solare. La tecnica di rivelazione dei buchi neri è analoga a quella appena menzionata per le stelle di neutroni. Si cercano stelle binarie emittenti nella regione X, fatto questo che rivela l'esistenza di materia che sta cadendo in un òggetto supercondensato. Dal modo in cui la stella visibile ruota attorno a 345
www.scribd.com/Baruhk
I progressi dell'astrofisica
quella invisibile, si deduce la massa di quest'ultima: se essa è all'incirca tre volte superiore alla massa solare, si ha a che fare con un buco nero. Attualmente sono abbastanza numerosi i casi di binarie X candidate per la presenza di un buco nero. Tra gli astrofisici c'è vasto consenso sul considerare i buchi neri entità realmente esistenti. Come si vedrà più avanti, i buchi neri stellari non sono gli unici studiati in astrofisica. Per spiegare i fenomeni altamente energetici che avvengono nei nuclei galattici attivi, vengono ipotizzati buchi neri supermassicci con masse pari a un miliardo di volte quella del Sole. È interessante notare che, da un lato, i buchi neri vengono spesso invocati (e praticamente non ci sono dubbi sulla loro presenza), mentre dall'altro mancano leggi fisiche per descrivere ciò che si verifica al loro interno: il concetto di singolarità è più un concetto matematico che un concetto fisico. Consideriamo ora quanto avviene nei processi di formazione stellare entro le nubi di gas e di polveri interstellari. Le stelle non si formano singolarmente, ma a grappoli, caratterizzati da una distribuzione di massa iniziale. In genere le stelle più massicce (fino a roo volte la massa del Sole) sono poco numerose, mentre via via che si passa a masse più piccole il loro numero aumenta. D'altra parte, perché un oggetto possa definirsi una stella devono iniziare nel suo interno le reazioni di bruciamento dell'idrogeno. Si può dimostrare che solo se la massa della condensazione gassosa è superiore a otto centesimi di quella del Sole la temperatura al suo interno sale abbastanza per permettere l'innesco. Oggetti con massa inferiore non possono chiamarsi stelle, ma potrebbero formarsi in grande quantità e avere una notevole rilevanza in molti problemi astrofisici; non è ancora chiaro quali possano essere i meccanismi di irradiazione, che, in ogni caso, deve essere bassissima. Questi oggetti vengono indicati con il termine di nane brune, dove il colore bruno sta a designare qualcosa di indeterminato; vengono chiamati anche «giovi» visto che Giove, pianeta molto massiccio, ha una massa pari a due centesimi di quella del Sole. Sono in corso esperimenti per rivelare la possibile presenza di questi oggetti praticamente invisibili; le ricerche sono incentrate sulle stelle delle Nubi di Magellano che passano dietro alle possibili nane brune presenti nella nostra galassia. L'effetto di lente gravitazionale indotto da queste sulle stelle più lontane fa sì che, nel momento in cui la nana bruna passa davanti alla stella, quest'ultima subisce un apparente aumento di luminosità. Un interessante capitolo dell'astrofisica riguarda l'origine degli elementi e la spiegazione della loro abbondanza relativa. La cosmologia ci insegna che gli elementi primordiali sono l'idrogeno e l'elio. Gli elementi più pesanti hanno origine all'interno delle stelle, dove i processi di fusione termonucleare conducono alla formazione di elementi sempre più pesanti, fino al ferro delle supernovae. Elementi più pesanti del ferro non si possono formare per fusione (il ferro è l'elemento più stabile), ma tramite altri tipi di reazione che coinvolgono l'assorbimento di un neutrone da parte di un nucleo. Ciò si verifica solo in presenza di altre reazioni capaci
www.scribd.com/Baruhk
I progressi dell'astrofisica
di produrre neutrom m abbondanza. Nelle stelle, in particolare nelle supernovae, hanno luogo anche processi di disintegrazione dei nuclei dovuti a forti flussi di fotoni capaci con la loro energia di frantumare nuclei già formatisi. L'astrofisica stellare mostra come ogni galassia si possa immaginare come un grande laboratorio dove, senza sosta, avvengono trasformazioni: le stelle si formano dal gas interstellare che, a sua volta, viene rigenerato per effetto della perdita di massa delle stelle. Si possono così distinguere stelle di diverse generazioni, individuabili in base all'abbondanza di elementi pesanti elaborati alloro interno (le stelle dell'ultima generazione sono quelle più ricche di questi elementi). Il quadro delle varie generazioni è tutto presente davanti a noi per il fatto che la velocità con cui una stella evolve dipende dalla sua massa; è così possibile vedere ancora le stelle nane della prima generazione. Si tratta di un quadro completamente diverso da quello dell'immutabilità dei cieli che nei secoli passati era il fondamento delle teorie astronomiche. VI
·
L'ASTROFISICA
DELLE
GALASS lE
Fin dall'epoca di Galileo l'uso dei telescopi aveva rivelato come oggetti che, osservati a occhio nudo o con strumenti di bassa potenza, apparivano diffusi e nebulosi, fossero in realtà formati da un agglomerato di numerose stelle. Si sviluppò così l'idea di un universo popolato non di stelle, ma di sistemi stellari. Nel 1750 Thomas Wright di Durham pubblicò un'opera intitolata An origina! theory or new hypothesis o/ the universe in cui immaginava un modello di universo riempito di sfere, ciascuna delle quali era formata da un guscio di stelle. Wright fu anche il primo a fornire una spiegazione della Via Lattea. Le idee di Wright furono riprese da Kant nella sua opera Storia generale della natura e teoria del cielo (1755), dove le proprietà dei sistemi stellari (quelli che oggi chiamiamo galassie), vengono descritte con ricchezza di dettagli. Si trattava però di formidabili intuizioni che non potevano a quell'epoca essere verificate sperimentalmente. Il problema era quello di determinare la distanza tra la Terra e questi sistemi, al fine di confrontare le loro dimensioni con quelle del nostro sistema, la Via Lattea, e stabilire se le nebulose osservate al telescopio erano oggetti simili al sistema solare. Dovettero passare quasi due secoli perché si avesse la prova scientifica che le nebulose a spirale sono sistemi stellari paragonabili al nostro. Nel 1926 fu determinata con una certa precisione la distanza della nebulosa a spirale di Andromeda e da quel momento l'idea di un universo di cui le galassie sono i principali costituenti fu accettata da tutta la comunità scientifica. Gli studi sulle galassie iniziarono nella prima metà del secolo e procedettero abbastanza lentamente a causa della debole luminosità di questi oggetti e della lentezza dei rivelatori, che all'epoca erano costituiti da emulsioni fotografiche. La ricerca extragalattica ha avuto rapido impulso dagli anni sessanta e costituisce tuttoggi l'argomento di punta dell'astrofisica in quanto, da un lato, utilizza i grandi 347
www.scribd.com/Baruhk
I progressi dell'astrofisica
risultati dello studio dell'evoluzione stellare e, dall'altro, fornisce la base osservativa alla cosmologia. A differenza delle stelle, che si presentano come oggetti puntiformi, le galassie sono oggetti estesi ed esibiscono una morfologia, il cui studio costituisce il primo passo nella loro comprensione. Vari schemi di classificazione sono stati proposti in passato, tutti ispirati alla classificazione morfologica originariamente elaborata da Hubble, che distingueva le galassie in «ellittiche» e «con bracci a spirale». Queste ultime vennero poi distinte in due sequenze: quella in cui i bracci hanno origine nel nucleo e quella in cui i bracci partono dall'estremità di una barra centrale. Successivamente ci si è resi conto che le galassie a spirale erano costituite da un rigonfiamento centrale e da un disco stellare che conteneva i bracci a spirale. Questi ultimi, anche se molto appariscenti in fotografia, sono formati solo da una minima percentuale della massa del disco. Si è inoltre constatato che le proprietà del rigonfiamento centrale sono abbastanza simili a quelle delle ellittiche, sistemi stellari a una sola componente. Attualmente si tende a dividere le galassie in due grandi classi: quelle che posseggono un disco e quelle prive di questa struttura. Molte galassie classificate come ellittiche, e cioè senza disco, a un esame fotometrico più accurato hanno mostrato di essere dotate anche di questa componente, sia pure in misura non molto consistente. È possibile ordinare le galassie in una sequenza in cui la variabile è il rapporto tra l'intensità luminosa del rigonfiamento centrale e quella del disco. A un estremo stanno le galassie formate essenzialmente da un disco, all'altro le galassie ellittiche con traccia di disco. Le pure galassie ellittiche senza disco potrebbero costituire una classe a parte. Uno dei punti cruciali che ancora attende una spiegazione è il meccanismo che ha portato le galassie ad avere l'attuale conformazione (con o senza disco). Le galassie sono formate da stelle, gas e polveri. Mentre in quelle ellittiche la percentuale di gas rispetto alle stelle è quasi trascurabile, in certi tipi di galassie a spirale la massa del gas può raggiungere addirittura un terzo della massa stellare. Siccome le stelle hanno origine dal gas e dalle polveri, si deve concludere che i processi di formazione stellare sono attivi nella galassia a spirale, mentre sono quasi del tutto assenti nelle ellittiche. La mancanza di gas in queste ultime può essere spiegata ammettendo che la formazione stellare sia avvenuta in modo molto rapido consumando tutto il gas primordiale a disposizione. La mancanza di gas, elaborato all'interno delle stelle e restituito all'ambiente per effetto della perdita di massa, viene poi spiegata con il fenomeno della termalizzazione. A differenza dei dischi delle galassie a spirale, dove il movimento delle stelle è di tipo ordinato (le stelle si muovono cioè attorno al nucleo su orbite circolari e complanari), nelle galassie ellittiche il moto delle stelle è «disordinato», nel senso che le orbite non sono circolari e sono contenute in piani con diversa inclinazione. In questa situazione, gli inviluppi gassosi emanati dalle stelle vengono a scontrarsi con una velocità relativa dell'ordine delle centinaia di chilometri al secondo e la temperatura del gas sale
www.scribd.com/Baruhk
I progressi dell'astrofisica
fino a valori che provocano un'evaporazione vera e propria dalla galassia. Per quanto detto, le galassie ellittiche sono costituite da una popolazione stellare vecchia, mentre le galassie a spirale sono costituite sia da popolazione vecchia sia da popolazione giovane. I bracci di spirale rappresentano i luoghi dove la formazione di stelle è tuttora in atto. Essi sono formati da onde di densità che comprimono il gas e provocano la formazione di stelle. In quanto onde, sono permanenti e non vengono distrutte dal fatto che il moto di rotazione della galassia non è un moto rigido ma un moto differenziale, ovvero un moto in cui la velocità angolare non si mantiene costante procedendo dal centro alla periferia della galassia. È lo studio della curva di rotazione delle galassie che ha permesso di rivelare uno dei fenomeni più caratteristici di questi sistemi stellari, e cioè il fatto che essi sono immersi in grandi aloni massicci e oscuri. La velocità di rotazione del disco stellare nelle parti centrali cresce con la distanza fino a un massimo, raggiunto il quale ci si aspetterebbe che la velocità decrescesse seguendo, da un certo punto in poi, la terza legge di Keplero che stabilisce appunto le velocità dei pianeti attorno al Sole. Infatti, se ci si allontana dal centro di una galassia a tal punto che tutta la sua massa può essere vista come massa centrale, ci si trova in una situazione simile a quella del Sole e dei pianeti. Per questa ragione la parte di curva di rotazione che a partire da un certo punto si dovrebbe osservare si chiama « tratto kepleriano ». L'analogo dei pianeti sono nubi di idrogeno neutro osservabili con i metodi della radioastronomia alla lunghezza d'onda di 21 cm e presenti a grandi distanze dal nucleo, in regioni dove la galassia non è più visibile otticamente. Queste nubi costituiscono le test particles del campo gravitazionale della galassia. Ora, la curva di rotazione che si può osservare fino a distanze che in certi casi raggiungono i 30o.ooo anni luce (pari a s-6 volte il raggio ottico della galassia) si mantiene sempre piatta: la velocità di rotazione è costante, e non mostra in alcun modo la tendenza a diminuire e a raggiungere il tratto kepleriano. È questa una delle scoperte più significative dell'astrofisica, che risale agli anni settanta. L'interpretazione è abbastanza diretta. Il comportamento cinematico indica che la massa della galassia ha una distribuzione che non segue quella della materia visibile. Esiste cioè un grande alone che si estende almeno fino· ai punti più distanti osservati e che, pur essendo dotato di massa (responsabile delle velocità elevate della curva di rotazione), non è luminoso. Come è noto, la galassia è mantenuta in equilibrio, contro la forza di gravità che la farebbe collassare, dalla forza centrifuga prodotta dal moto di rotazione. Se la forza centrifuga è maggiore di quella prodotta dal moto kepleriano, la massa è distribuita in modo molto esteso e, anche a 3oo.ooo anni luce dal nucleo, la galassia non viene vista come un oggetto concentrato. Se si fanno i calcoli, si trova che la massa dell'alone oscuro è circa dieci volte più grande di quella associata alla materia luminosa. Un altro modo di esprimere questo fatto consiste nel dire che il rapporto tra la massa e la luminosità è una funzione crescente della distanza dal 349
www.scribd.com/Baruhk
I progressi dell'astrofisica
nucleo. Essendo normalmente le galassie ellittiche prive di gas, non è stato possibile ottenere, per un campione abbastanza grande, curve di rotazione che permettano di stabilire se anche queste galassie sono immerse in aloni massicci oscuri. Recenti osservazioni di un campione ristretto, ma significativo, hanno permesso di stabilire in modo inequivocabile che anche le galassie ellittiche si comportano come quelle con i bracci a spirale. L'alone massiccio oscuro è quindi una caratteristica comune a tutte le galassie, una componente misurabile la cui natura non è ancora nota. L'alone potrebbe essere formato da materia barionica, e cioè da stelle in visibili come le nane bianche e le stelle di neutroni, da buchi neri oppure da nane brune e «giovi». Anche la materia non barionica, come per esempio quella formata da neutrini massicci o da particelle esotiche, per il momento solo ipotizzate, potrebbe costituire gli aloni oscuri delle galassie. Come vedremo, questi aloni rappresentano una delle indicazioni della presenza della materia oscura nell'universo. In base allo studio della rotazione delle galassie è possibile stabilire la loro massa. Mentre la massa delle singole stelle non varia molto da un oggetto all'altro, quella delle galassie (dalle più piccole alle più grandi) è compresa in un vastissimo intervallo. Una galassia nana può essere formata da poco più di un milione di stelle come il Sole, mentre nel caso di alcune ellittiche giganti la massa raggiunge valori pari a diecimila miliardi di volte la massa solare. La funzione di massa o, meglio ancora, la funzione di luminosità, che è più difficile da ottenere, mostra che la distribuzione delle luminosità è tale per cui le galassie più brillanti, e quindi le più massicce, sono poco numerose rispetto a quelle di debole intensità luminosa. L'osservazione mostra le galassie così come si proiettano sulla volta celeste: noi vediamo la proiezione a due dimensioni di un oggetto a tre dimensioni. Il problema è allora quello di risalire alla struttura spaziale. Non ci sono molte difficoltà per capire che le galassie a spirale sono formate, oltre che dal rigonfiamento centrale, da una struttura a disco che ci appare allungata e sottile quando è vista di taglio, rotonda quando il disco è visto di faccia. Tutto questo porta a concludere che si ha a che fare con un vero e proprio disco circolare. La situazione è invece più complessa se si considerano le galassie ellittiche, che non posseggono un disco vistoso. Le linee di eguale intensità luminosa sulla loro immagine proiettata sono delle ellissi e un semplice teorema mostra che queste sono consistenti non solo con strutture schiacciate, come un disco, ma anche con strutture allungate a sigaro e, nel caso più generale, con strutture asimmetriche a tre assi, simili ai sassi levigati dall'acqua in un fiume. Osservazioni legate alla dinamica delle galassie ellittiche hanno permesso di affermare che la loro forma tridimensionale più generale è quella in cui le superfici di eguale densità luminosa sono ellissoidi a tre assi. Un esame accurato del rigonfiamento centrale delle galassie a spirale ha mostrato che esso ha, spazialmente, una configurazione triassiale. Infine, gli stessi dischi sono circolari solo in prima approssimazione. Misure accurate mostrano che generalmente sono ovalizzati e, pertanto, lievemente triassiali. Si può dunque affermare che la forma più gene350
www.scribd.com/Baruhk
I progressi dell'astrofisica
rale delle galassie e delle loro componenti non è quella asimmetrica, ma quella triassiale, ben più complessa. Questo fatto è di grande rilevanza per lo studio dei processi di formazione delle galassie. Studiare come si sono formate le galassie è, in un certo senso, più complesso che studiare come si sono formate le stelle. Nel caso delle stelle si ha davanti agli occhi tutto il processo evolutivo, dato che è possibile osservare le stelle evolute (come sono per esempio quelle che costituiscono gli ammassi globulari) e, al tempo stesso, sia nella nostra galassia che in parte di quelle esterne, regioni dove le stelle si stanno formando. Non è così per le galassie. Secondo i correnti schemi di evoluzione dell'universo, si suppone che esse abbiano la stessa età. Tutte le galassie si sarebbero formate alla stessa epoca, che viene fatta risalire a circa un miliardo di anni dopo il Big Bang. Nell'universo, inizialmente abbastanza (ma non perfettamente) omogeneo, è cresciuto continuamente il contrasto di densità per effetto del fenomeno dell'instabilità gravitazionale, sino a che il suo aspetto è profondamente mutato. Da un universo uniformemente pieno di materia si è passati a una situazione in cui grandi masse gassose, dapprima isolate l'una dall'altra, dopo un processo di collasso hanno prodotto le galassie. Le nubi protogalattiche sono dotate di un moto di rotazione più o meno accentuato. Accade quindi che il gas collassa gravitazionalmente lungo l'asse di rotazione, mentre, perpendicolarmente a questo, il collasso viene contrastato dalla forza centrifuga. La situazione finale, per quel che riguarda il gas, è quella in cui si forma un disco in equilibrio. La situazione è invece molto diversa per le stelle, che hanno cominciato a formarsi fin dall'inizio del collasso gravitazionale e che, in molti casi, continuano a formarsi tuttora. Una volta formate, le stelle hanno dimensioni così piccole rispetto alle loro distanze medie che non interagiscono più tra loro e continuano indisturbate a descrivere attorno al nucleo le orbite determinate dalle condizioni iniziali. Ne consegue che, essendo ogni fase del collasso caratterizzata da una particolare configurazione del gas originario (configurazione che con il tempo diventa sempre più schiacciata), le stelle che si sono via via formate continuano a occupare il volume definito dal gas alle varie epoche. Pertanto, attorno alle galassie, osserviamo oggi un alone di forma pressoché sferica che ricorda quello della protogalassia ed è costituito dalle stelle primordiali formatesi non appena la nube gassosa, che ha dato origine alla galassia, si è isolata. Queste stelle sono tutte nane, perché quelle più massicce sono evolute dato il gran tempo trascorso. Si definisce poi una popolazione intermedia, composta dalle stelle formatesi prima che il disco gassoso assumesse la configurazione di equilibrio. Vi è, infine, la popolazione più giovane di stelle appena formate o in formazione che occupa la componente più schiacciata della galassia. Come già si è accennato, se il gas a disposizione nella protogalassia fosse stato usato tutto rapidamente per formare stelle, non si avrebbe più una diversificazione in popolazioni stellari: questo potrebbe essere il caso delle galassie ellittiche. Anche se le galassie vicine hanno tutte la stessa età e sono pertanto il risultato 351
www.scribd.com/Baruhk
I progressi dell'astrofisica
di un'evoluzione che ha avuto Imz1o praticamente con l'origine dell'universo, è comunque possibile studiare tale evoluzione per il fatto che la luce ha una velocità finita di propagazione nell'universo. Ne risulta che se guardiamo abbastanza lontano non vediamo le galassie come sono attualmente, ma come erano tanti anni fa quanti sono gli anni luce che definiscono le distanze di quelle galassie. Guardando sempre più lontano è possibile andare indietro nel tempo e vedere a ritroso tutta l'evoluzione delle galassie, fino al momento originario in cui hanno preso forma dalle protogalassie. n problema connesso a questo tipo di osservazioni è l'estrema debolezza degli oggetti da osservare, dovuta alla enorme lontananza. Si richiede l'uso dei più grandi telescopi e in particolare, quando si voglia anche studiare come è cambiata la morfologia delle galassie oltre che la distribuzione di energia emessa, è necessaria una grande risoluzione spaziale che solo l'HsT può darci. I risultati finora ottenuti sono molto incoraggianti. Si è visto, per esempio, guardando le galassie come erano un paio di miliardi di anni fa, che esse non contengono le stelle più evolute, proprio perché queste raggiungono tale fase solo ai nostri tempi. Al contrario, se si guarda molto più lontano, le galassie appaiono tutte di colore più blu di quelle vicine perché in esse predominano le stelle calde di recente formazione. Di estremo interesse sono i dati forniti dall'HsT riguardanti la morfologia delle galassie lontane fino a 8 miliardi di anni. A questa distanza non si trovano facilmente le galassie ellittiche e le galassie a spirale, che dominano nelle regioni a noi circostanti. Prevale invece una varietà di strutture dalle forme irregolari, che suggeriscono che le collisioni tra galassie o altri tipi di interazione sono i fattori responsabili dell'evoluzione che ha portato le galassie alla forma e struttura attuali. L'idea che, nell'evoluzione delle galassie, l'ambiente circostante possa aver avuto un ruolo importante si è sviluppata negli ultimi decenni. In precedenza era quasi impensabile che le galassie potessero interagire tra loro frequentemente, così da modificare vicendevolmente le loro strutture. La scarsa sensibilità delle emulsioni fotografiche mostrava le galassie come piccoli oggetti rispetto alle distanze reciproche, per cui la possibilità di incontri sembrava essere remota. Successivamente si è visto che alcune galassie ellittiche potevano avere dimensioni così grandi da conglobare altre galassie e da poter essere considerate in stretto contatto tra loro. L' avvento del computer ha permesso di simulare l'incontro tra galassie. Si è riusciti così a spiegare la presenza di strutture, fino ad allora incomprensibili, quali lunghi filamenti luminosi emananti dalle galassie, presenza di gusci sferici, strutture galattiche ad anello, invocando unicamente l'azione gravitazionale tra le stelle. Semplici calcoli mostrarono che questo tipo di incontri è abbastanza frequente (certamente più di uno per galassia, dall'epoca della sua nascita, nel caso di ammassi abbastanza densi). Alcuni di questi eventi provocano profonde mutazioni solo all'epoca del massimo ravvicinamento tra due galassie, dopodiché la situazione ritorna normale, come prima dell'incontro. Ci sono invece altri tipi di interazione che provocano profondi mutamenti. È il caso del « cannibalismo galattico », per cui le galassie ellittiche giganti, 352
www.scribd.com/Baruhk
I progressi dell'astrofisica
che stanno al centro di ammassi, tendono ad arricchirsi continuamente in contenuto stellare a spese delle galassie più piccole circostanti. Queste vengono attratte verso il nucleo della galassia centrale, cominciano a spiraleggiare attorno a essa e in breve volgere di tempo perdono la loro identità fondendosi completamente con la galassia gigante. Interessanti sono i fenomeni, che sempre più spesso vengono osservati, di controrotazione tra due componenti - una gassosa e l'altra stellare, o entrambe stellari - che ruotano in senso opposto. Si tratta di una delle prove più convincenti del fatto che, nella storia della galassia, un secondo evento è accaduto e ha portato all'acquisizione di materiale. Infatti, nello schema descritto per la formazione di una galassia, ci si aspetta che alla fine del processo evolutivo tutto il materiale ruoti nello stesso senso. Se una componente « controruota », questo vuoi dire che essa non ha partecipato alla ridistribuzione del momento angolare delle fasi iniziali, ma che è stata acquisita posteriormente, in una situazione di condizioni orbitali tali da assumere un momento angolare di orientazione opposta a quello della galassia preesistente. Le galassie mostrano una forte tendenza a raggrupparsi fra di loro e a formare insiemi che vanno da qualche decina di componenti a qualche migliaio. Nel primo caso si parla di gruppi; ne è un tipico esempio il Gruppo Locale, a cui appartengono, oltre alla nostra galassia con le due galassie satelliti (la Grande e la Piccola Nube di Magellano), anche la Nebulosa di Andromeda, pure essa accompagnata da galassie satelliti, e altre galassie sia a spirale sia di tipo ellittico. Se il numero di componenti raggiunge il centinaio, allora si parla di ammasso di galassie. Gli ammassi sono di tipo regolare se hanno una regione centrale ben definita, attorno alla quale simmetricamente si distribuiscono le galassie con una densità regolarmente decrescente verso l'esterno; in questo tipo di ammassi predominano le galassie ellittiche. Gli ammassi irregolari sono invece costituiti da galassie ellittiche e a spirale distribuite in maniera più disordinata. Di questo tipo è il vicino ammasso della Vergine, che si trova a una distanza di 6o milioni di anni luce a cui corrisponde una velocità di recessione di circa 1200 km/s. A una distanza cinque volte più grande si trova il più vicino ammasso regolare, quello della Chioma di Berenice, con una massa diecimila volte superiore a quella della nostra galassia. Prima ancora della scoperta degli aloni massicci oscuri attorno alle galassie, furono gli ammassi di galassie a porre il problema della materia oscura. Lo studio della dispersione delle velocità radiali delle singole galassie attorno al valore medio fornisce un'indicazione del grado di agitazione di questi sistemi, che è tanto più grande quanto maggiore è la massa totale. Ci si trova così di fronte a un'enorme discrepanza: la massa globale risulta anche cento volte più grande di quella che si ottiene sommando la massa delle singole galassie. In altri termini, il rapporto massaluminosità di un ammasso può raggiungere valori pari a qualche centinaio (si assume uguale a uno il rapporto massa-luminosità del Sole), mentre per singole galassie non supera il valore dieci. Se ne conclude che, oltre alla massa associata alla parte visi353
www.scribd.com/Baruhk
I progressi dell'astrofisica
bile, deve esistere dell'altra massa, che è diffusa nell'ammasso e non contribuisce all'emissione di luce visibile. Questa massa è stata in un primo tempo chiamata «massa mancante», anche se sarebbe stato più opportuno chiamarla «massa latente» in quanto è presente senza essere visibile. Oggi viene chiamata « materia oscura ». L'osservazione degli ammassi di galassie nel dominio dei raggi X ha portato a un'interessante scoperta: un gran numero di ammassi è completamente pervaso da una nube di gas molto caldo (a una temperatura di IO-IOo milioni di gradi), che emette raggi X. La massa di questo gas è consistente (superiore fino a 5 volte a quella delle singole galassie), ma non è tuttavia sufficiente a impedire la dispersione dell'ammasso per effetto delle velocità delle galassie. Poiché si ritiene che gli ammassi siano configurazioni stabili, questo materiale dà conto solo molto parzialmente della presenza di materia oscura. Il gas caldo non è di origine primordiale, in quanto risulta composto anche da elementi pesanti, come il ferro, che devono essere stati elaborati all'interno delle stelle. Questo particolare si rivela molto interessante quando si considerano i meccanismi di formazione delle galassie e degli ammassi. La tendenza a formare ammassi non è propria solo delle galassie, ma anche degli stessi ammassi, che tendono a riunirsi tra loro per formare gli ammassi di ammassi, chiamati superammassi. Anche il Gruppo Locale di galassie, a cui appartiene la nostra, fa parte del cosiddetto Superammasso Locale, che ha il suo centro nell'ammasso della Vergine. I superammassi sono in genere formati da qualche decina di ammassi cospicui e da parecchie decine di ammassi più piccoli. Il loro diametro può raggiungere i 300 milioni di anni luce; non c'è evidenza osservativa di concentrazioni di ordine superiore. Il progresso delle tecniche di osservazione ha permesso in tempi recenti di ottenere gli spettri di un elevato numero di galassie. Questi spettri permettono di determinare le velocità con cui le galassie si allontanano da noi e, quindi, le loro distanze. È stato possibile in questo modo elaborare una mappa tridimensionale della distribuzione delle galassie da cui è emerso che gli ammassi di galassie e i superammassi non sono presenti in modo uniforme nell'universo. Esistono vaste zone dello spazio che non sono popolate da galassie, i cosiddetti «vuoti », divisi tra loro da strutture chiamate « muri » che costituiscono concentrazioni di galassie. Si parla anche di universo « a spugna » per la presenza di enormi bolle vuote alla cui superficie si addensano le galassie. Lo studio della struttura su larga scala dell'universo è uno dei campi di frontiera della moderna astrofisica, poiché è strettamente collegato alle ricerche sui processi evolutivi iniziali del cosmo. Nel 1963 veniva scoperto, in corrispondenza di una radiosorgente, un oggetto caratterizzato da una distanza notevole (pari a quella di alcune fra le galassie più lontane allora conosciute), ma al tempo stesso molto brillante e molto compatto, tanto che la sua immagine era molto simile a quella di una stella. La successiva individuazione di altri oggetti simili ha portato a definire una categoria di oggetti celesti chiamati quasar (contrazione di quasi stellar) e ha aperto un nuovo capitolo 354
www.scribd.com/Baruhk
I progressi dell'astrofisica
dell'astrofisica, che è tuttora uno dei più seguiti per le sue profonde implicazioni nello studio dei meccanismi di emissione da parte delle regioni più nucleari delle galassie. Caratteristica dei quasar è l'emissione di una grande quantità di energia da una regione relativamente piccola, come si deduce dal fatto che la loro luminosità varia in tempi brevi, dell'ordine degli anni o anche dei mesi. La scala dei tempi delle variazioni luminose pone infatti un limite alle dimensioni dell'oggetto, che in tempo-luce deve essere inferiore a tale scala affinché possano essere percepite le variazioni luminose. Dimensioni più grandi produrrebbero, a causa dei differenti percorsi seguiti dai raggi emessi dalle diverse aree dell'oggetto per arrivare all' osservatore, la cancellazione del fenomeno della variabilità. I quasar vengono oggi interpretati come nuclei di galassie molto lontane (quindi vicine all'epoca di formazione) che stanno attraversando una fase assai attiva della loro evoluzione, nel senso che emettono una quantità di energia luminosa anche mille volte più grande dei nuclei normali. La scoperta dei quasar ha indotto a focalizzare l'attenzione sui fenomeni nucleari delle galassie e in particolare su tutta una fenomenologia in cui l'emissione da parte del nucleo è oltremodo significativa. Si è cominciato così a parlare di « galassie attive » contrapposte alle galassie normali. Si definiscono attive le galassie di Seyfert, con struttura a spirale e nucleo molto piccolo, il cui spettro mostra larghe e intense righe di emissione. Alla stessa categoria appartengono le galassie N, con nucleo molto intenso, e gli oggetti di tipo BL Lacertae, simili ai quasar, che mostrano variazioni luminose rapidissime, dell'ordine dei giorni, ma anche, nei casi più estremi, di frazioni di giorno. Galassie attive sono considerate le radiogalassie, caratterizzate da intensa emissione rilevabile con i radiotelescopi. La struttura radio di queste galassie è molto particolare. È costituita da due filamenti, o getti, che dal nucleo si dirigono in due direzioni diametralmente opposte. Al termine di questi getti si formano due grandi strutture rotondeggianti, che costituiscono i lobi della radiosorgente. Le dimensioni raggiunte sono da Io a wo volte maggiori di quelle della galassia come viene vista nel dominio ottico. La radiazione proveniente dalla radiostruttura è quella tipica di sincrotrone, emessa cioè da elettroni relativistici spiraleggianti lungo le linee di forza di un campo magnetico. Queste strutture radio si osservano anche nei quasar. È interessante notare che qualche volta si osserva il fenomeno delle radiosorgenti superluminali, cioè di lobi che visti a distanza di tempo sembrano allontanarsi dall'oggetto centrale con una velocità sulla volta celeste che supera quella della luce. Il fenomeno è facilmente spiegato ammettendo che il getto sia diretto quasi lungo la linea di vista, con una velocità prossima a quella della luce. In questo modo ci si rende conto che quanto viene osservato è solo apparente. Il problema fondamentale posto dalle galassie attive è quello dell'individuazione della sorgente delle enormi quantità di energia emesse. Tenendo conto della rapida variabilità di alcune sorgenti e dell'alta luminosità del loro nucleo compatto si arriva alla conclusione che, al centro delle galassie, esistono situazioni molto favorevoli per 355
www.scribd.com/Baruhk
I progressi dell'astrofisica
ipotizzare la presenza di un buco nero massiccio, con massa pari anche a più di 100 milioni di volte la massa del Sole. Non si tratta del buco nero considerato finora, che è il risultato finale dell'evoluzione di una stella un po' più massiccia del Sole e che richiede condizioni estreme di densità. I buchi neri galattici, date le loro caratteristiche, vengono prodotti passando per situazioni di densità di materia spesso molto inferiore a quella dell'acqua. Come nel caso stellare, se c'è materiale che cade in un buco nero, questo va a formare il disco di accrescimento responsabile della radiazione emessa dai nuclei attivi. Questo disco rotante è fatto a doppio imbuto nella regione lungo l'asse di rotazione; è da questo imbuto che fuoriesce il plasma relativistico che va a costituire dapprima i getti emananti dai nuclei galattici e, successivamente, i lobi originati dall'interazione tra il materiale espulso e il gas intergalattico. Gli sforzi degli astrofisici sono attualmente rivolti allo studio dettagliato di tutti i meccanismi necessari per far funzionare il modello del buco nero massiccio, che sembra essere il « motore » più valido per rendere conto dei fatti osservati. Ci si domanda allora se il buco nero centrale è proprietà solo delle galassie attive o se tutte le galassie, anche le normali, ne sono provviste. Studi della zona centrale della nostra galassia, che non è considerata attiva, hanno rilevato che le osservazioni sono compatibili con la presenza di un buco nero dotato di una massa pari a un milione di volte quella solare. La dinamica delle stelle nelle regioni nucleari di alcune galassie ellittiche normali rivela la presenza di un oggetto molto compatto e massiccio, che potrebbe essere un buco nero. Recentemente è stato messo in evidenza che la cattura di una singola stella da parte del buco nero centrale è in grado di provocare un brillamento del nucleo che può durare qualche anno. I riscontri di questi casi fatti con l'HsT sono promettenti. L'idea corrente è che un buco nero, più o meno massiccio, sia presente nel centro di tutte le galassie e che il fenomeno dell' attività si presenti quando attorno al buco nero vi sia del materiale catturabile. In assenza di questo materiale, si ha a che fare con galassie normali. In relazione ai quasar è da ricordare l'interessante fenomeno, scoperto negli ultimi anni, delle lenti gravitazionali. Il ruolo di lente viene svolto da galassie sui raggi luminosi provenienti da un quasar molto più lontano e praticamente allineato lungo la linea di vista. Generalmente, il campo gravitazionale della galassia, con le sue irregolarità, devia i raggi provenienti dal quasar, secondo quanto predetto dalla teoria della relatività, producendo immagini multiple accanto a quella della galassia stessa. VII
· COSMOLOGIA
La teoria della relatività generale, enunciata nel secondo decennio di questo secolo, ha offerto la possibilità di trattare l'universo nella sua globalità e di descriverne le proprietà generali. Da quella data ha inizio la moderna cosmologia, il cui sviluppo può essere diviso in tre distinti periodi. Nel primo, che dura fino al 1965,
www.scribd.com/Baruhk
I progressi dell'astrofisica
vengono esplorate le proprietà geometriche dell'universo, definite soprattutto dai modelli evolutivi di Friedmann e verificate sperimentalmente dalla legge di Hubble. A partire dal 1965, quando viene scoperta la radiazione cosmica di fondo, si intensificano gli studi riguardanti l'evoluzione fisica dell'universo e si elabora la teoria del Big Bang caldo, di cui vengono studiate le proprietà. Nonostante i successi del modello standard del Big Bang, emergono parecchi problemi che non trovano spiegazione. Inizia così, nel 1980, la terza fase dello sviluppo della cosmologia relativistica, che contempla l'inflazione dell'universo nelle primissime fasi. Dato il rapporto molto stretto che esiste tra queste tematiche e i più recenti sviluppi della fisica, rinviamo il lettore al saggio di Becchi e Osculati, in questo volume, dedicato a La fisica delle interazioni fondamentali, della materia e del cosmo, e prendiamo invece in considerazione le principali questioni ancora aperte a proposito dei modelli cosmologici contemporanei. Nonostante il successo ottenuto, la teoria del Big Bang classico presenta alcune difficoltà o problemi, primo tra tutti il cosiddetto problema dell'orizzonte. Il nostro orizzonte ha un raggio che, espresso in anni luce, è pari all'età in anni dell'universo. Ne consegue che quando, per esempio, guardiamo la radiazione cosmica di fondo in due regioni opposte del cielo, queste, pur non potendo aver mai comunicato tra loro a causa della velocità finita della luce, si presentano a noi in modo perfettamente identico, come è indicato dall'altissimo grado di isotropia osservato. Come possono regioni diverse dell'universo, che non sono mai state in contatto tra loro, decidere di presentarsi con le stesse caratteristiche? Il secondo problema posto dalla teoria del Big Bang classico è quello della piattezza dell'universo. La densità media della materia nell'universo, tenendo conto della materia oscura associata alle galassie e agli ammassi, è un decimo di quella critica, che caratterizza un universo piatto. Se si va a vedere qual era questo rapporto nell'universo primordiale, si trova che esso differiva dall'unità per una quantità infinitesima. Viene pertanto da pensare che il vero rapporto tra densità media e densità critica sia proprio l'unità e che resti da scoprire la rimanente materia oscura. La teoria classica, tuttavia, non è in grado di spiegare perché il nostro universo debba proprio essere caratterizzato dalla densità critica. Il terzo problema lasciato irrisolto dal Big Bang classico è quello dell' asimmetria che in un certo momento deve essersi creata per dar luogo all'attuale universo dominato dalla materia, visto che nell'universo primordiale doveva esserci una perfetta simmetria tra materia e antimateria. Un altro problema riguarda l'origine delle fluttuazioni di densità che, amplificandosi con lo scorrere del tempo, hanno dato origine all'attuale universo, caratterizzato da un forte contrasto della densità di materia. Andando a ritroso nel tempo si dovrebbe trovare la causa che ha prodotto i germi delle fluttuazioni, una causa che non è però indicata dal Big Bang classico. Altri problemi erano rimasti senza risposta quando, verso il 1980, si è aperta la terza fase dello sviluppo della cosmo357
www.scribd.com/Baruhk
I progressi dell'astrofisica
logia relativistica segnata dalla proposta del cosiddetto modello inflazionario, il cui scopo era proprio quello di trovare una soluzione ai problemi or ora accennati. Il nome deriva da quella che è la caratteristica più saliente di questo modello, che consiste nell'ammettere che, attorno all'epoca corrispondente a 10- 34 secondi dal Big Bang, l'universo abbia subito un processo di accelerazione che ha fatto aumentare il suo volume di un fattore 1050 . Questo processo di inflazione trova la sua giustificazione nella presenza di forze che si eserciterebbero tra la materia nelle condizioni fisiche estreme presenti a quell'epoca. L'inflazione spiega i vari problemi a cui si è accennato. Il problema dell'orizzonte viene spiegato dal fatto che prima dell'inflazione c'è stato tutto il tempo necessario affinché le varie parti dell'universo potessero comunicare tra loro. Solo successivamente l'inflazione le porta a così grandi distanze che esse non possono più comunicare tra loro data la finitezza della velocità della luce. È inoltre possibile dimostrare che, se l'universo è sottoposto alla rapida accelerazione tipica del modello inflazionario, la sua geometria tende a diventare euclidea e pertanto la densità media della materia tende a quella critica. Vi è dunque una buona ragione per ritenere che il nostro universo sia al limite della chiusura. Mentre per questi primi due problemi è bastato ammettere l'inflazione, senza fare uso della fisica sottostante, per gli altri due bisogna invece considerare le condizioni fisiche. Il problema dell'asimmetria tra materia e antimateria trova la sua origine nelle particolari condizioni che si sono venute a creare nel momento di transizione tra la fase GUT e quella successiva. Infine, la risoluzione del problema delle fluttuazioni rappresenta uno dei successi più brillanti del modello inflazionario. L'idea è che le fluttuazioni siano di origine quantistica e che si sviluppino con l'inflazione. Lo spettro delle perturbazioni che si ottiene in questo modo è proprio quello necessario per spiegare l'origine delle strutture cosmiche attualmente osservate. La teoria dell'inflazione, che all'inizio era stata proposta come mezzo per superare alcune difficoltà della teoria del Big Bang classico, tende ora a proporsi come una visione del mondo di ben più larghe proporzioni, dove il Big Bang del nostro universo è da considerarsi un fenomeno molto limitato. Secondo il fisico Andrei Linde, l'universo inflazionario è un universo che si autoriproduce dando luogo a infiniti miniuniversi attraverso infiniti mini Big Bang di cui quello che ha dato origine al nostro universo è solo uno dei tanti. Si torna così a un modello di tipo stazionario di durata eterna entro il quale nascono, si sviluppano e muoiono infiniti universi. Questa teoria non è priva di fascino. Essa dovrebbe tuttavia indicare quali siano le basi osservative che, come si è visto, costituiscono il fondamento di ogni modello cosmologico.
www.scribd.com/Baruhk
CAPITOLO
DECIMO
Gli sviluppi della chimica nel xx secolo DI SALVATORE CALIFANO
I
·
INTRODUZIONE
Lo sviluppo della chimica, soprattutto quello realizzatosi negli ultimi due secoli, coincide sotto molti aspetti con lo sviluppo stesso della società, per la profonda incidenza che questa scienza ha avuto su gran parte del progresso scientifico, tecnologico e perfino sociale dell'umanità. La nascita e la crescita della struttura industriale delle società moderne e le profonde trasformazioni sociali che ne sono derivate, sono infatti strettamente collegate con l'evoluzione della chimica, con le sue trasformazioni concettuali e con le sue realizzazioni sperimentali. Nel corpo delle varie branche della chimica si sono accumulate e amalgamate nel tempo linee di pensiero, metodologie e problematiche estremamente diverse e differenziate, dando così vita a una scienza che fonde perfettamente la struttura teorica e il rigore quantitativo della fisica con le necessità di sistematizzazione e di classificazione proprie delle scienze naturali. Come conseguenza di questa sua natura complessa e articolata, la chimica rappresenta oggi il ponte naturale di collegamento tra discipline molto diverse fra di loro, quali la fisica, la biologia molecolare, la geologia, la mineralogia e perfino l'astrofisica. Gli enormi risultati realizzati dalla chimica nel xx secolo non possono tuttavia essere correttamente compresi e analizzati senza richiamare, anche se sommariamente, gli sviluppi della chimica nel secolo precedente. È infatti nel XIX secolo che la chimica, diventata ormai una scienza adulta, si è strutturata in un complesso corpo di teorie, integrato da un apparato di tecniche sperimentali ben consolidato. Le difficoltà che si presentano nel condensare in poche pagine gli sviluppi della chimica in questo periodo cruciale della sua evoluzione, sono dovute non solo alla vastità della materia e alla sua complessa suddivisione in branche differenziate e autonome, ma anche al fatto che questi sviluppi, lontani dal procedere in maniera costante e continua, riflettono idee, concezioni e atteggiamenti personali degli studiosi, spesso in netta opposizione tra di loro. Conviene quindi individuare quelle linee fondamentali di pensiero che meglio ne caratterizzano il processo evolutivo e che, tra contraddizioni e ripensamenti, hanno alla fine consentito a questa scienza di articolarsi in una visione organica e unitaria della natura, della struttura e della 359
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
reattività dei composti chimici. Gli sviluppi fondamentali che maggiormente hanno influenzato la ricerca chimica del xx secolo sono facilmente individuabili in quelli relativi alla definizione di atomo e di molecola, della valenza e della natura elettrica e direzionale del legame chimico, e alla comprensione del fatto che la natura è riproducibile in laboratorio per sintesi diretta dei composti del mondo naturale e, per di più, trasformabile attraverso la creazione di nuovi composti non esistenti in natura. II
· L'EREDITÀ
DEL
XIX
SECOLO
1) Atomi e molecole
Già all'inizio del XIX secolo la chimica aveva chiarito la definizione della propria natura attraverso lo sviluppo di un metodo sperimentale rigoroso e quantitativo, associato, da una parte, all'introduzione di concetti fondamentali come l'elemento, la combinazione, il miscuglio, la reazione chimica e, dall'altra, alla formulazione di leggi definitive come quelle della conservazione della massa e della stechiometria. Il concetto basilare di elemento chimico godeva di vasta notorietà sin dal secolo precedente, ma solo con J. Dalton (1766-1844) si trasformò in quello di atomo, modificando definitivamente tutto il pensiero chimico e gettando le basi della chimica moderna. L'ipotesi che gli atomi fossero i mattoni fondamentali della materia, sviluppata come pura astrazione filosofica dai filosofi greci Leucippo, Democrito ed Epicuro, era rimasta praticamente ignorata per tutto il Medioevo, completamente oscurata dalla teoria del continuo di Aristotele. Solo grazie alla diffusione della tesi atomistica di Epicuro, dovuta in buona parte al filosofo francese Gassendi al principio del xvn secolo, l'ipotesi atomica cominciò lentamente a farsi strada e, ereditata da Descartes, da Newton, da Boyle, da Lomonosov e da Euler, trovò prima in Dalton e poi in Avogadro gli artefici di una rivoluzione concettuale che si concluse con il sistema periodico degli elementi di D. J. Menddéev e con la teoria molecolare di S. Cannizzaro. L'ipotesi atomica entrò ufficialmente a far parte del patrimonio culturale dei chimici nel 1803 con la presentazione di una memoria di Dalton alla Phylosophical Society di Manchester. Nel 18o8 Dalton pubblicò il suo libro A new system o/ chemica! phylosophy che dava forma compiuta alla legge delle proporzioni definite di J. L. Proust e a quella delle proporzioni multiple sviluppata dallo stesso Dalton. Egli dimostrò che l'esistenza degli atomi permetteva di spiegare in forma semplice e coerente i rapporti costanti in peso con cui gli dementi entravano a far parte di un composto. Malgrado l'opposizione violenta dei sostenitori della teoria del continuo (in particolare del chimico francese C.-L. Berthollet), l'ipotesi atomica venne in breve tempo accettata e lo stesso Dalton riuscì a produrre la prima tavola di pesi atomici per gli elementi allora conosciuti. I pesi atomici di Dalton non erano cor-
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
retti essendo tutti multipli interi del peso atomico dell'idrogeno posto eguale a uno e basati sull'errata convinzione che le molecole fossero composte dall'unione di un solo atomo di un elemento con uno solo di un altro elemento. Fu lo svedese Jons Jacob Berzelius, il chimico più importante della prima metà del XIX secolo, a capire, sulla base dei suoi lavori di analisi, che un atomo di un elemento si può combinare con un numero variabile di atomi di altri elementi e che i pesi atomici non sono necessariamente multipli interi di quello dell'idrogeno. Berzelius pubblicò nel 1826 una tabella dei pesi atomici di 45 elementi che, tranne nel caso del sodio, del potassio e dell'argento (il cui peso atomico era doppio di quello attuale) non si discostano molto dai valori attuali. Un primo contributo sperimentale importante al lavoro di sistematizzazione dei pesi atomici di Berzelius venne dalla legge enunciata nel 1819 dal chimico Dulong e dal fisico Petit, la quale stabiliva che il prodotto del peso atomico di un elemento per il suo calore specifico allo stato solido era una costante eguale a 6 calorie/0 C. Un secondo contributo derivò dalla regola dell'isomorfismo di Eilhard Mitscherlich (1794-1863), secondo la quale sostanze che hanno la stessa forma cristallina e le stesse proprietà chimiche hanno la stessa formula molecolare. Allo sviluppo della teoria atomica e poi di quella molecolare contribuì però in maniera determinante lo studio sperimentale dei rapporti volumetrici con cui le sostanze allo stato gassoso si combinano tra di loro. Esperienze in questo campo furono eseguite da K. W. Scheele (1742-86), da A. Lavoisier (1748-94) e ]. Meusnier, da A. von Humboldt e J.-L. Gay-Lussac utilizzando l'eudiometro di A. Volta. Nel 1808 il chimico francese Joseph-Louis Gay-Lussac (1778-1850), partendo dai risultati ottenuti sulla combinazione dell'idrogeno e ossigeno per formare acqua, dell'ammoniaca e dell'acido cloridrico per formare cloruro d'ammonio e dell'ammoniaca con il trifluoruro di boro, enunciò la legge dei volumi secondo la quale la combinazione di sostanze allo stato gassoso ha sempre luogo con rapporti numerici semplici tra i volumi. In questo periodo i concetti di atomo e di molecola non erano ben distinti e spesso venivano utilizzati come sinonimi. n vero problema nasceva dall'apparente contraddizione tra la legge di Dalton e la legge dei volumi di Gay-Lussac. Era impossibile, per esempio, spiegare come da due volumi di idrogeno e uno di ossigeno si ottenessero due volumi di acqua e non uno, senza dover ammettere che in qualche modo le entità semplici che costituivano i gas si dovessero dividere per poi ricombinarsi insieme in maniera differente. In altre parole era necessario ammettere che le molecole dei gas fossero costituite da più atomi e che nelle reazioni queste molecole potessero scindersi per poi ricombinarsi nelle molecole del prodotto. n chimico italiano Amedeo Avogadro (1776-1856), in un famoso lavoro intitolato Essai d'une manière de déterminer !es masses relatives des molécules élémentaires des corps et !es proportions selon lesquelles elles entrent dans ces combinations (pubblicato nel 18n sul periodico «}ournal de Lamétherie »), riuscì a mettere d'accordo l'ipotesi atomistica di Dalton con i dati sperimentali di Gay-Lussac. Secondo il principio formulato da
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
Avogadro, volumi eguali di gas, nelle stesse condizioni di temperatura e di pressione, contengono lo stesso numero di molecole costituite da più atomi. Nella reazione le molecole dei gas reagenti si scindono negli atomi costituenti che si ricombinano tra di loro per formare il prodotto della reazione. Le idee di Avogadro, nonostante fossero chiaramente esposte, non trovarono spazio per circa 50 anni, a causa della violenta opposizione prima di Berzelius e poi di Dumas, succeduto al primo come caposcuola della chimica in Europa, anche se chimici autorevoli come Charles Gerhardt, Auguste Laurent e Friedrich August Kekulé svilupparono idee analoghe a quelle di Avogadro, convinti della necessità di dover separare il concetto di atomo da quello di molecola. La svolta per l'affermazione delle idee di Avogadro si ebbe nel r86o nel congresso organizzato a Karlsruhe da Kekulé, Weltzien e Wurtz nel tentativo di chiarire questo stato di confusione, grazie al quale ogni chimico scriveva le formule dei composti in maniera diversa. Al congresso di Karlsruhe, Stanislao Cannizzaro (r826I9IO), professore di chimica all'Università di Genova, intervenne calorosamente in difesa del principio di Avogadro e riuscì a convincere gli oppositori con una serie di argomenti chiari e sperimentalmente documentati. Allo sviluppo della teoria atomica e molecolare si associò presto la nascita di un nuovo linguaggio chimico: quello delle formule e delle reazioni chimiche nella forma di equazioni quantitative che condensano in un formalismo rigoroso tutte le informazioni relative non solo al tipo di atomi costituenti la molecola, ma anche al peso molecolare, alla natura chimica del composto (acido, base, ecc.) e soprattutto alla sua composizione stechiometrica. L'avvio verso una nomenclatura chimica con simboli specifici per gli elementi fu dato da Dalton che usò come simbolo base, un cerchio per l'ossigeno in cui veniva poi inserito un secondo simbolo per differenziare i diversi elementi: un punto per l'idrogeno, un trattino verticale per l'azoto e così via. Il perfezionamento della nomenclatura chimica, in una forma non molto diversa da quella attuale, fu realizzato da Berzelius che adottò le lettere iniziali del nome latino per gli elementi e un numero per indicare quanti atomi fossero presenti nel composto. L'attuale nomenclatura chimica, perfezionatasi e arricchitasi di nuovi simboli nel corso degli anni, rappresenta di fatto il linguaggio formale più pregnante di informazione della scienza moderna. Senza di esso sarebbe impensabile comunicare alla comunità scientifica il risultato di complesse reazioni chimiche e perfino pensare in termini di struttura e di reattività, cioè nei termini in cui il chimico moderno vede il risultato delle proprie ricerche. Con la definitiva affermazione delle idee di Cannizzaro i chimici organici erano in grado di studiare su basi sicure le complesse molecole costituite da un un numero relativamente ristretto di elementi, soprattutto carbonio, idrogeno e ossigeno. Meno chiara era invece la situazione della chimica inorganica. Gli elementi noti mostravano proprietà completamente diverse e senza regolarità apparenti. Era impossibile, soprattutto, stabilire il loro numero e quali strade seguire per individuare quelli ancora sconosciuti. All'inizio del secolo erano noti tredici
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
elementi e solo nel primo decennio ne furono scoperti altri quattordici. La prima metà del xrx secolo vide a mano a mano arricchirsi il numero degli elementi semplici, tanto che nel 1869 erano già noti 63 elementi con pesi atomici ormai sicuri e proprietà chimiche ben studiate. Il primo a rendersi conto dell'esistenza di regolarità nelle proprietà chimiche degli elementi fu il tedesco Johann Wolfgang Dobereiner (1780-1849) che nel 1829 notò che alcuni gruppi di tre elementi, che egli chiamava triadi, avevano proprietà simili. Triadi erano per esempio costituite da calcio, stronzio e bario, da cloro, bromo e iodio, da ferro, cobalto e nichel, e da zolfo, selenio e tellurio. Nel periodo 1862-63 il geologo Alexandre Béguier de Chancourtois (1820-86) sistemò gli elementi in ordine di peso atomico crescente in forma di una spirale avvolta attorno a un cilindro. Nel 1864 l'inglese John Alexander Reina Newlands (1837-98) riorganizzò gli elementi secondo il peso atomico e osservò che le loro proprietà chimiche sembravano ripetersi nella sequenza a gruppi di otto elementi alla volta. L'esistenza di queste regolarità sembrava però non interessare nessuno e appariva come una pura esercitazione classificatoria e accademica, ben lontana dal rappresentare una legge importante per la comprensione delle proprietà degli elementi. Il salto concettuale importante che permise di trasformare un'operazione puramente classificatoria in una vera e propria legge della natura fu realizzato dal chimico russo Dmitrij Ivanovic Mendeléev (1834-1907) nel periodo 1869-71. Mendeléev capì che il peso atomico non era sufficiente a regolare le proprietà chimiche degli elementi, e che, solo dando importanza alla periodicità della valenza e del volume atomico, era possibile ottenere una sistematizzazione corretta. Su questa base Mendeléev dispose gli elementi in funzione del peso atomico in gruppi con valenza crescente, che organizzò in una tabella in cui lasciò tre posti vuoti, assumendo che essi dovessero corrispondere a elementi non ancora noti che chiamò eka-boro, eka-alluminio ed eka-silicio, predicendone molte proprietà chimiche e fisiche. Inoltre invertì la posizione del tellurio con quella dello iodio affinché il primo cadesse nella colonna degli elementi bivalenti e il secondo in quella dei monovalenti. Solo tre anni dopo, nel 1874 Lecoq de Boisbaudran (1838-1912) scopriva il gallio che, come lo stesso Mendeléev dimostrò, era proprio l'eka-alluminio. Il sistema periodico degli elementi, nella forma completa datagli da Mendeléev nel 1871, non era soltanto una classificazione di proprietà chimiche e fisiche, ma aveva in sé tutto il potere di previsione di una teoria, poiché permetteva non solo di stabilire che altri elementi non noti dovevano esistere, ma anche che il numero di elementi era necessariamente limitato. Riuscire a ridurre l'enorme varietà della materia a un centinaio di elementi (o poco più), rappresenta il risultato più impressionante di quella mentalità riduzionistica che tanta importanza ha avuto nello sviluppo della scienza. Come vedremo in seguito il sistema periodico di Mendeléev ha costituito il necessario supporto chimico alle teorie quantistiche della struttura dell'atomo.
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
2) Valenza e architettura molecolare. Lo sviluppo della chimica organica
Già nel 1704 Isaac Newton (1642-1727) aveva ipotizzato che la capacità dei composti chimici di reagire tra di loro fosse dovuta a una forza analoga a quella della gravitazione universale. In tutto il XVIII secolo, si alternarono e si contrapposero su questo problema concezioni vitalistiche e animistiche, derivate dalla biologia e dalla medicina, a concezioni meccanicistiche secondo cui le particelle si agganciavano tra di loro, a più nebulose idee di nuove forze attrattive e repulsive agenti solo a distanze piccolissime. L'esistenza di forze attrattive e repulsive tra le particelle trovò ampio spazio nel famoso libro Elementa chemie di Hermann Boerhaave (1668-1738) del 1732. L'ipotesi dell'esistenza di attrazioni e repulsioni, viste animisticamente come una specie di amore e odio, di simpatia e antipatia che gli elementi nutrivano tra di loro portò, come primo tentativo di interpretazione, allo sviluppo di una teoria cosiddetta dell'affinità chimica, per la quale Etienne François Geoffroy (1672-1731) prima e Torbern Bergman (1735-84) poi compilarono vere e proprie tabelle che acquisirono enorme notorietà alla fine del XVIII e per buona parte del XIX secolo. La scoperta dell'elettricità e la realizzazione della pila di Volta attrassero l'attenzione dei chimici sui fenomeni elettrici e sembrò naturale cercare di capire se l'oscura natura dell'affinità chimica fosse in qualche modo risultante dall'interazione tra cariche elettriche. All'inizio del 18oo William Nicholson e Antony Carlisle utilizzarono la pila di Volta per decomporre l'acqua e descrissero l'elettrolisi di soluzioni acquose, mostrando come a uno dei poli si liberasse idrogeno e all'altro ossigeno. Tra il 1808 e il 1811 Berzelius sviluppò una teoria elettrochimica dell'affinità sostenendo che ogni atomo, con eccezione dell'ossigeno che era solo elettronegativo, possedeva sia una carica positiva sia una carica negativa ma in quantità variabile. Nella serie elettrochimica di Berzelius gli atomi si comportavano come elettronegativi verso quelli che li seguivano e come elettropositivi verso quelli che li precedevano nella serie. La teoria di Berzelius, anche se ebbe immediata risonanza, cominciò rapidamente a declinare sia perché Berzelius confondeva intensità e quantità di corrente, sia soprattutto perché per i fisici dell'epoca l'elettricità era un fluido continuo e non corpuscolare. La teoria di Berzelius, per di più, contrastava con quella di Avogadro secondo la quale due atomi di idrogeno (o due di ossigeno), con la stessa carica, si combinavano tra di loro per formare molecole biatomiche; inoltre non riusciva a spiegare la struttura di molti composti organici nei quali elementi elettronegativi come l'ossigeno e lo zolfo reagivano tra di loro, mentre non si combinavano uno elettronegativo come l'ossigeno e uno elettropositivo come l'oro. E ancora, la legge di Faraday sull'elettrolisi mostrava chiaramente che la stessa quantità di elettricità era necessaria per decomporre quantità chimicamente equivalenti di diversi elettroliti, mentre la teoria di Berzelius prevedeva che, essendo diversa e variabile la quantità di elettricità localizzata in ogni atomo, sarebbe stata necessaria una diversa quantità di elettricità.
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
Un primo passo verso una teoria generale della valenza fu realizzato da GayLussac nel 18n e, successivamente, da Justus von Liebig e Friedrich Wholer nel 1832, con la scoperta che determinati gruppi di atomi come per esempio i gruppi CN (cianogeno), OH (ossidrile), C 14H 100 2 (benzoile), si ripetevano continuamente nei composti organici. A questi gruppi di atomi Guyton de Morveau (1737-1816) aveva dato il nome di radicali e la teoria dei radicali diventò rapidamente, attraverso le ricerche di Jean-Baptiste-André Dumas (18oo-84) e Auguste Laurent (180853), uno dei pilastri fondamentali dello sviluppo di una teoria dei composti organici. ll fatto che essi non fossero isolabili (fatto che gli oppositori della teoria consideravano dirimente per respingerla) fu spiegato da Berzelius con la motivazione che, reagendo molto rapidamente, non potevano essere visibili. Ci vorranno 200 anni circa perché i radicali a vita breve vengano identificati con tecniche chimicofisiche! Nella successiva teoria dei tipi, brillantemente esposta da Charles Gerhardt (1816-56) nel 1848, i radicali assunsero un significato diverso, nel senso che venivano descritti non più come entità a se stanti, ma come il residuo che si forma da una molecola per eliminazione di un atomo e che combinandosi con un altro residuo dà luogo a un nuovo composto. I tempi erano ormai maturi perché si riconoscesse il fatto che ogni atomo può legarsi con un numero ben determinato di altri atomi. Le teorie dei radicali e dei tipi confluirono così, verso la metà del secolo, in una teoria unitaria della valenza. Nel 1852 Edward Frankland (1825-99), in un articolo intitolato New series o/ organic bodies containing metals, espresse questo concetto in forma defmitiva e, poco dopo, Kekulé dimostrò che la valenza di un atomo si ottiene dividendo il suo peso atomico per il peso equivalente. Nel 1858 lo stesso Kekulé stabilì la tetravalenza o, come egli diceva, la tetraatomicità dell'atomo di carbonio, cioè la sua capacità di unirsi con quattro atomi monoatomici come l'idrogeno o con due atomi biatomici come l'ossigeno. Nello stesso anno Archibald Scott Cooper (1831-92) sviluppò l'idea che nei composti organici esistessero catene di atomi di carbonio e Kekulé spiegò la formula degli idrocarburi alifatici CnH2n+2 • Ben presto si chiarì, malgrado l'opposizione di Kekulé, che la valenza di un atomo non era costante ma che, a seconda dell'atomo con cui si combinava, poteva assumere anche valori superiori e inferiori. Così, per esempio, Cooper mostrò come l'azoto potesse essere sia trivalente sia pentavalente e, Butlerov, che lo zolfo potesse assumere valenza quattro e valenza sei. Cooper, Alexander Crum Brown e Charles Wurtz (1817-84) usarono lineette per rappresentare le valenze, ponendo le basi della moderna rappresentazione dei legami chimici. Altri concetti basilari per gli sviluppi futuri si aggiunsero nello spazio di pochi anni. Nel 1862 Emil Erlenmayer (1825-1909) scoprì che nell'acetilene esisteva un legame triplo tra i due atomi di carbonio e nel 1864 Crum Brown formulò il doppio legame nell'etilene. Questi legami vennero definiti insaturi da Lothar Meyer (1830-95), per il fatto che erano facilmente saturabili con atomi d'idrogeno dando luogo ai corrispondenti composti saturi.
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
Il primo a esprimere chiaramente il concetto di struttura molecolare come disposizione della posizione relativa dei legami all'interno della molecola fu il chimico russo Alexander Michailovich Butlerov (1828-86) nel 186r. Nel 1864 apparve una sua monumentale opera intitolata Introduzione al completo apprendimento della chimica organica, che rielaborava tutti i fatti sperimentali noti in termini di formule di struttura. Il contributo di Butlerov alla chimica organica è enorme. Nel 1865, usando le formule di struttura riuscì a spiegare il fenomeno dell'isomeria, già noto fin dal 1830, cioè l'esistenza di composti con composizione identica sia per numero sia per tipo di atomi (formula bruta o centesimale), ma proprietà fisiche completamente diverse, come per esempio il butano CH3 -CH2 -CH2 -CH3 e l'isobutano (CH3 ) 3CH. Butlerov riuscì anche a spiegare il fenomeno più complesso della tautomeria (o isomeria reversibile), cioè l'esistenza di isomeri capaci di trasformarsi l'uno nell'altro, che si presentavano insieme nella reazione di preparazione, ma con concentrazioni diverse a seconda della temperatura e della pressione. I.:esistenza dell'isomeria permise di chiarire l'importanza della struttura tridimensionale delle molecole e il fatto che dalla disposizione spaziale degli atomi dipendono non solo le proprietà fisiche ma anche la reattività delle molecole. Già nel 1817 Jean Baptiste Biot (1774-1862) aveva scoperto che alcuni cristalli erano capaci di ruotare il piano della luce polarizzata in senso orario o in senso antiorario. Questo fenomeno, alla cui comprensione contribuirono in maniera determinante gli studi del chimico francese Louis Pasteur (1822-95), fu detto di attività ottica; esso si presentava anche per molti cristalli organici e in molti casi persisteva anche quando il cristallo era disciolto in un solvente. Nel 1840 erano noti due tipi dell'acido tartarico (quello che si accumula sulle pareti delle botti durante la fermentazione del vino), di cui uno era otticamente inattivo (racemico) mentre l'altro ruotava il piano della luce polarizzata a destra (acido d-tartarico). Pasteur osservò che il sale di sodio e ammonio dell'acido tartarico cristallizza spontaneamente da soluzioni acquose in cristalli che sono fisicamente separabili e che hanno attività ottica diversa. n sale destrogiro risultò derivare dall'acido dtartarico ordinario. n sale levogiro risultò invece derivare da un nuovo tipo di acido 1-tartarico, identico come composizione chimica al precedente ma con potere rotatorio differente. r.; acido tartarico racemico conteneva in eguali proporzioni quello destro- e quello levo-giro e i due effetti si compensavano esattamente, rendendolo otticamente inattivo. Lo stesso Pasteur mise a punto tecniche diverse per la separazione dei due isomeri e nel 186o avanzò l'ipotesi che l'attività ottica fosse in qualche modo collegata a una asimmetria della molecola. Nel 1869 Johannes Wislicenus (1835-1902), uno dei chimici più noti in Europa, scoprì che esistevano due forme dell'acido lattico, una otticamente inattiva che si forma per fermentazione del latte, e una destrogira che si accumula nell'organismo· a seguito del lavoro muscolare. Subito dopo fu scoperto l'acido lattico levogiro che si ottiene per fermentazione del glucosio. Su questa base Wislicenus riprese l'ipotesi di Pasteur affermando, con tutto il peso della sua autorità, che l'attività ottica doveva essere legata a una qualche asimmetria molecolare.
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
COOH
Piano di riflessione
c~
COOH
c~
Fig. l. Forme destro- e levogira dell'acido lattico.
Nel 1874 un giovane e sconosciuto professore olandese alla scuola di veterinaria di Utrecht, Jacobus Van't Hoff (I852-I9II), chiarì definitivamente il problema facendo notare che, se si ammetteva che le quattro valenze (che Van't Hoff chiamava ancora affinità) dell'atomo di carbonio erano dirette ai vertici di un tetraedro regolare, tutti i problemi dell'isomeria avrebbero trovato una spiegazione immediata e semplice. Dalla struttura tetraedrica del carbonio si ricavava che quando l'atomo di carbonio è asimmetrico, cioè quando le quattro valenze sono saturate da quattro gruppi differenti, devono esistere due forme isomere e otticamente attive, di cui l'una è l'immagine speculare dell'altra (come appare nella fig. 1 per il caso dell'acido lattico). Nello stesso anno 1874 il chimico francese Joseph Le Bel (1847-1930) pubblicò un articolo in cui enunciava le stesse idee di Van't Hoff. La tesi di Van't Hoff scatenò le ire del noto chimico tedesco Hermann Kolbe (1818-84), che attaccò Van't Hoff con un articolo pieno di feroci insulti. La polemica tra Kolbe e Van't Hoff diede luogo a una serie di prese di posizione dei chimici del tempo: in particolare, Wislicenus e Wurtz si schierarono a favore dell'ipotesi di Van't Hoff, mentre Berthelot si dichiarò contrario. Nel 1877, su proposta di Wislicenus fu pubblicata la traduzione francese dell'articolo di Van't Hoff dal titolo La Chimie dans l'espace. La teoria di Van't Hoff si affermò defmitivamente nel 1877 dopo la ferma presa di posizione di uno dei padri della chimica-fisica, Friedrich Wilhelm Ostwald (1853-1932) e di H. H. Landolt, autore di un'opera fondamentale dal titolo Das Optische Drehungsvermogen organischer Substanzen und dessen praktische Anwendungen, e soprattutto dopo la soluzione, da parte dello stesso Van't Hoff, del problema della struttura degli acidi maleico e fumarico che hanno la stessa formula bruta HOOC- C= C- COOH, ma comportamento chimico completamente diverso. (Nella fig. 2 sono riportate le formule dei due isomeri: nell'acido maleico i due gruppi COOH sono dallo stesso lato del doppio legame etilenico [cis] mentre nell'acido fumarico sono dalla parte opposta [trans].) Nel 1896 Paul Walden riuscì a dimostrare che un isomero otticamente attivo poteva essere trasformato nel suo antipodo ottico senza passare per il racemo. Usando pentacloruro di fosforo PC15, Walden ottenne dall'acido l-malico l'acido"d-clorosuc-
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
H""'C/COOH
H""'C/COOH
Il
Il
H/C""'COOH Acido maleico struttura cis
HOOC/C""'H Acido fumarico struttura trans
Fig. 2. Conformazione dei due isomeri cis e trans dell'etilene bisostituito.
cinico. Da questo per azione dell'ossido d'argento, riuscì a sostituire l'atomo di cloro con un ossidrile OH ottenendo l'acido d-malico, cioè il composto di partenza ma con attività ottica invertita. Infine dall'acido d-malico ottenne con pentacloruro di fosforo l'acido l-clorosuccinico e da questo riottenne con ossido d'argento l'acido l-malico, secondo lo schema seguente: acido Z-clorosuccinico
acido d-malico
~Ag20 acido Z-malico
acido d-clorosuccinico
Nel XIX secolo, i problemi della chimica erano sia quello di chiarire la composizione e la struttura dei composti esistenti in natura, sia quello di costruire per sintesi nuovi composti. Queste esigenze nascevano oltre che dal processo interno di crescita della disciplina, anche dalle richieste provenienti dalle esigenze della vita di ogni giorno e dalle applicazioni nella nascente struttura industriale, in medicina, in farmacia e in agricoltura. Utilizzando la capacità dei composti di reagire nelle più diverse condizioni fisiche, i chimici misero a punto ·le due tecniche fondamentali di questo complesso processo conoscitivo: l'analisi e la sintesi. L'analisi elementare, introdotta già da Lavoisier e perfezionata nella prima metà del secolo da grandi chimici come Berzelius, Gay-Lussac e da Justus von Liebig, fu lo strumento che permise di ridurre l'enorme numero dei composti chimici a pochi elementi e di precisarne i rapporti ponderali. Risultò così chiaro non solo che le sostanze organiche erano composte da un numero relativamente piccolo di elementi (soprattutto carbonio, idrogeno e in minore quantità, ossigeno e azoto), ma anche
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
che le loro proprietà chimiche e fisiche non erano riconducibili a quelle degli elementi costituenti e dipendevano in modo specifico dalla posizione relativa degli atomi nella molecola. n lavoro di sintesi richiese la costruzione di tutta una rete di correlazioni tra fatti empirici, la loro sistematizzazione in un quadro organico e la ricerca delle condizioni sperimentali che favorissero o meno l'andamento delle reazioni. n numero di sintesi realizzate nel XIX secolo è imponente ed enumerarle tutte sarebbe compito impossibile oltre che inutilmente noioso. Ci limiteremo quindi a segnalare le tappe fondamentali di questa grande impresa che ha visto sommarsi il massacrante lavoro di laboratorio allo sviluppo di una logica induttiva estremamente potente. Già nel 1828 Friedrich Wohler (18oo-82) era riuscito a ottenere dal cianato d'ammonio, che fa parte del mondo minerale, un tipico composto organico come l'urea che si estrae dall'urina. La sintesi dell'urea diede un colpo definitivo alle teorie vitalistiche, sostenute anche da grandi chimici come Berzelius. Nel 1842 N. N. Zinin sintetizzò l'anilina (C6H 5 -NH) per riduzione del nitrobenzene con idrogeno e nel 1843 August Wilhelm von Hofmann (1818-92) estrasse l'anilina dal catrame di carbon fossile. La scoperta dell'anilina e dei suoi derivati aprì la strada alla produzione sintetica di coloranti. Nel 1856 William Henry Perkin (1838-1907), allievo di von Hofmann, cercando di sintetizzare il chinino ottenne un colorante purpureo: la mauveina. Alla sintesi della mauveina seguì nel 1869 quella dell'alizarina che lo stesso Perkin e Heinrich Caro (1834-1910) realizzarono quasi simultaneamente per ossidazione dell'antracene ad antrachinone e successiva idrolisi con acido solforico. La sintesi industriale dell'alizarina creò seri problemi economici ai coltivatori francesi di piante di robbia. Ancora più drammatica per gli agricoltori si rivelò la sintesi industriale del blu di indaco per il quale furono proposte varie sintesi finché, nel 1890, Cari Heumann (1850-93) al Politecnico di Zurigo non realizzò quella economicamente più vantaggiosa dall'acido antranilico. I coloranti sintetici fecero la fortuna dell'industria inglese e soprattutto della Badische Anilin und Soda Fabrzk (BASF), la grande industria chimica tedesca diretta da Hofmann. Nel 1845 il chimico svizzero Christian Friedrick Schonbein (1799-1869) scoprì, quasi accidentalmente, la nitrocellulosa e nel 1847 Ascanio Sobrero preparò la nitroglicerina. Questi composti, come è noto, sono estremamente pericolosi perché esplodono con grande facilità. Nel 1866 lo svedese Alfred Bernhard Nobel (1833-96), che apparteneva a una famiglia di fabbricanti di nitroglicerina, si accorse che la farina fossile (kieselguhr) poteva facilmente assorbire grandi quantità di nitroglicerina e poteva essere lavorata con grande sicurezza in forma di bastoncini, pur conservando l'enorme potere dirompente della nitroglicerina. A questo esplosivo Nobel diede il nome di dinamite. Nel 1891 Dewar e Frederick Augustus Abel (1827-1902) prepararono la cordite dalla nitrocellulosa, dando avvio così allo sviluppo dell'industria degli esplosivi. Negli anni sessanta era ormai chiarita la struttura di un gran numero di composti, soprattutto alifatici, ma restava oscura quella dei derivati dal catrame di carbon fossile, una enorme famiglia di composti il cui capostipite è il benzene (C 6H 6 )
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
o
o
Fig. 3. Le formule di Kekulé del benzene.
scoperto nel r825 da Michael Faraday (179I-r867). Ben presto furono preparati o scoperti in natura un gran numero di derivati del benzene: composti in cui uno o più atomi di idrogeno erano sostituiti da nuovi gruppi di atomi. Molti di questi derivati, come per esempio il tolu~lo C 6 H5 ~ CH3 , lo xilolo [C6H 4 (CH3 ) 2] e l'acido benzoico C6 H5 - COOH, erano noti da tempo ai chimici. Nel r865 Kekulé riuscì finalmente a spiegare la particolare natura insatura dei composti aromatici assumendo che essa fosse legata al fatto che il benzene e i suoi derivati possedevano una struttura ad anello con semplici e doppi legami alternati. Nella fig. 3 è rappresentata la struttura proposta da Kekulé per il benzene, dove i cerchietti bianchi indicano gli atomi di idrogeno e i cerchietti neri quelli di carbonio. I legami semplici e doppi sono indicati rispettivamente con uno e due trattini. La struttura del benzene proposta da Kekulé, anche se immediatamente accettata dai chimici, presentava l'inconveniente di essere rappresentata da due strutture complementari, quella di sinistra e quella di destra della fig. 3· Alle obiezioni dei molti chimici dell'epoca che non riuscivano a capire come a una molecola potessero corrispondere due formule diverse di struttura, Kekulé rispondeva sostenendo che esse si trasformavano continuamente l'una nell'altra e quindi non erano isolabili. In breve tempo si sviluppò tutta una serie di ricerche sui derivati del benzene che si ottengono per sostituzione degli atomi d'idrogeno con gruppi chimici diversi. Nel caso, per esempio, di derivati bisostituiti con bromo si ottengono tre isomeri che prendono rispettivamente il nome di orto-, meta- e para-dibromobenzene (vedi fig. 4). L'utilizzazione delle formule di struttura permise facilmente ai chimici di abbandonare definitivamente la tecnica empirica di sintesi dei composti usata fino a quel momento che era basata sui più diversi tentativi alla cieca, sostituendola con veri e propri progetti di ricerca che partivano dalla conoscenza della struttura dei composti di base e dalla previsione di quella dei composti desiderati. Cominciò a realizzarsi in questo modo quel vero e proprio « meccano » della chimica che consente oggi ai chi370
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
o
o
o
orto
meta
para
Fig. 4. I tre isomeri del dibromobenzene.
miei di costruire un numero enorme di nuove molecole complesse, aggiungendo o sostituendo i vari gruppi costituenti, sostituendo a un atomo di un gruppo un ulteriore pezzo e così via. Questa incredibile tecnica di «taglia e incolla» fu resa possibile dall'accumulo di conoscenze precise su come un gruppo chimico (-N02 , -CH3 , - OH, -COOH, ecc.) fosse staccabile da una molecola e inseribile in un'altra e portò alla realizzazione di teorie della sostituzione dei gruppi che formarono la base della moderna teoria dei meccanismi di reazione. Un buon esempio del grande potere di predizione delle formule di struttura, accoppiato a semplici deduzioni logiche, è fornito dal lavoro del 1874 dell'italiano Guglielmo Korner (1839-1925), allievo di Kekulé, sui derivati trisostituiti del benzene. Dalle formule dei derivati bisostituiti della fig. 4 Korner dedusse che, per sostituzione di un terzo idrogeno con bromo, si dovessero ottenere rispettivamente due isomeri trisostituiti partendo dal composto orto, tre partendo dal meta e uno solo partendo dal para, secondo lo schema illustrato nella fig. 5. Già alla metà del secolo era ormai chiaro che lo sviluppo dei processi industriali era strettamente legato a un'approfondita conoscenza teorica dei meccanismi delle reazioni chimiche e al controllo dei parametri che regolano gli equilibri e la velocità delle reazioni. Lo sviluppo artigianale che aveva caratterizzato la nascita dell'industria chimica aveva ormai neFessità di una profonda trasformazione che permettesse di realizzare grandi impianti di produzione di prodotti chimici a basso costo, così da soddisfare le esig,enze di un mercato in continua crescita. Nonostante molti processi industriali fossero nati in Francia nel xrx secolo, fu l'industria tedesca a prendere rapidamente il sopravvento agli inizi del Novecento. I fattori che maggiormente contribuirono a questo rapido capovolgimento della struttura industriale europea vanno ricercati soprattutto nell' organizzazione piramidale e accentratrice delle scuole francesi di chimica di quel 371
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
o
o
orto
meta
o
para
o
o 1,2,3 tribromobenzene
1,2,4 tribromobenzene
1,3,5 tribromobenzene
Fig. 5. Lo schema di Korner per la sostituzione di un terzo atomo di bromo agli isomeri del dibromobenzene.
periodo. La chimica francese del xrx secolo, che aveva avuto personaggi del livello di Lavoisier, Berthollet, Gay-Lussac e Dumas, non era riuscita, malgrado i grandi meriti di questi maestri, a creare una scuola efficiente. Le scuole di chimica, tutte accentrate a Parigi, continuavano a procedere sul vecchio schema maestro-allievo. Esse erano controllate da potentissimi personaggi che, impegnati ad affermare e consolidare la propria notorietà internazionale e coinvolti in beghe accademiche e lotte personali, dedicavano poco tempo all'insegnamento metodico e rigoroso delle discipline chimiche mostrando soprattutto poco interesse per i problemi, certamente non appariscenti, dei processi industriali. Al contrario la Germania era divisa in piccoli staterelli, ciascuno con la propria università, dove sotto la guida di veri e propri docenti dedicati all'insegnamento sperimentale, lavoravano schiere di giovani studenti impegnati in un lavoro spesso di routine e non spettacolare, ma indispensabile per trovare le migliori condizioni di resa quantitativa delle reazioni. 372
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
n primo vero laboratorio per l'insegnamento sperimentale della chimica fu creato da Justus von Liebig a Giessen nel 1824. Von Liebig (1803-73) aveva studiato a Parigi con Gay-Lussac contribuendo in maniera decisiva alla sintesi di molti composti organici tra cui il fulminato d'argento e aveva conosciuto personaggi importanti come il barone Alexander von Humboldt. Fu proprio von Humboldt, ambasciatore di Prussia a Parigi, che convinse il granduca Ludwig di Hessen-Darmstadt ad assegnare a von Liebig una posizione accademica a Giessen, rendendosi conto che la chimica era ormai divenuta di fondamentale importanza per l'economia del paese e poteva dare grandi contributi allo sviluppo dell'agricoltura, dell'industria e della farmacia. L'insegnamento della chimica realizzato a Giessen da von Liebig era basato su un programma di ricerca definito che comprendeva la pratica in laboratorio dell'analisi qualitativa e quantitativa di composti organici, nonché l'uso per la prima volta di tabelle per riportare i dati sperimentali e la loro costante diffusione sul giornale « Annalen der Chemie und Pharmacie » fondato nel 1832 dallo stcs;;o von Liebig. In questo modo la reputazione del laboratorio di Giessen si diffuse rapidamente in Europa e servì ad attrarre studenti anche da altri stati tedeschi e da altri paesi europei. Nel 1830, 15 studenti di chimica e 53 di farmacia frequentavano il laboratorio. Nel 1850 il numero di studenti era incredibilmente aumentato fino a 407 studenti di chimica e 252 di farmacia. n successo dell'insegnamento di von Liebig portò come conseguenza l'interesse dei governi alla chimica e quindi un incremento del finanziamento della ricerca. Dal 1824 al 1843 i fondi del laboratorio salirono da roo a 1900 fiorini l'anno! Rapidamente, sulla scia dell'insegnamento di von Liebig, cominciarono a fiorire in tutta Europa veri e propri corsi di chimica. Grande reputazione internazionale ottennero per esempio le lezioni di chimica tenute all'Università di Genova da Cannizzaro, che nel 1858 aveva pubblicato sul «Nuovo Cimento» il resoconto del suo corso di chimica in due volumi. In Inghilterra, von Hofmann, allievo di von Liebig, fu chiamato nel 1845 al Royal College of Chemistry, appena fondato, per riformare l'insegnamento della chimica e successivamente Edward Frankland (1825-99) e Henry Edward Armstrong (1848-1937), altri allievi di von Liebig, contribuirono in maniera determinante allo sviluppo dell'insegnamento a Manchester e a Londra. In tutte le grandi università tedesche la chimica divenne in breve tempo un insegnamento fondamentale e contribuì a produrre schiere di chimici qualificati che si diffusero nell'industria contribuendo alla fortuna economica della Germania nel xx secolo. III
·
LA
CHIMICA
NEL
XX
SECOLO
La chimica del xx secolo è caratterizzata da una marcata articolazione in branche fortemente differenziate e autonome e da una sempre più spinta specializzazione della ricerca. Questa specializzazione, iniziata ai primi del secolo e cresciuta 373
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
in maniera impressionante dopo la seconda guerra mondiale, rappresenta in realtà una caratteristica peculiare di tutte le scienze in generale ed è associata a una produzione di lavori scientifici che ha raggiunto proporzioni enormi e continua a crescere a dismisura. La suddivisione accademica della chimica in grandi aree (chimicafisica, inorganica, organica, analitica, farmaceutica, biologica e industriale) non rende ben conto di questa profonda specializzazione. In ognuna di queste grandi aree si sono create ulteriori specializzazioni, ognuna delle quali ha un suo corpo di teorie, una sua strumentazione, un suo complesso di tecniche sperimentali e un suo linguaggio specialistico. La vastità della materia, che si arricchisce ogni giorno di nuove scoperte, rende pertanto impossibile esporre tutti i suoi sviluppi senza ricorrere a una vera e propria selezione per argomenti, che permetta di illustrarne le specifiche problematiche e valutarne l'influenza esercitata in altri campi. Come abbiamo già detto, i progressi realizzati nel XIX secolo costituiscono la solida base su cui si è sviluppata e trasformata la chimica del Novecento. A questo sviluppo hanno contribuito in maniera determinante la grande crescita industriale dei paesi tecnologicamente avanzati e le scoperte della fisica intorno alla prima metà del secolo, per l'influenza da esse esercitata sulle teorie e sulle metodologie sperimentali di tipo chimico-fisico. Fin dall'inizio del secolo il potere politico e quello economico si erano resi conto dell'importanza della ricerca chimica per l'industria, per la produzione di armi chimiche, per l'agricoltura, per la farmacia e per l'incremento culturale e scientifico dell'umanità. Ai laboratori universitari cominciarono ad affiancarsi grandi istituzioni di ricerca pura. Nel 1911 furono creati in Germania, con un grosso intervento economico da parte degli industriali, gli istituti di ricerca della Kaiser Wilhelm Gesellscha/t, trasformatisi dopo la seconda guerra mondiale nei famosi istituti Max Planck. Nel 1923 fu creato il Consiglio Nazionale delle Ricerche (CNR) in Italia e, nel 1945, il Centre National de la Recherche Scienti/ique (cNRS) in Francia. A queste istituzioni statali si aggiunsero presto grandi laboratori industriali di ricerca come quelli della Dow Chemical, della Shell, della Bell Telephone, della Du Pont e dell'ruM negli Stati Uniti, dell'Imperia! Chemical Industry in Gran Bretagna, della BASF, della Bayer, della I. G. Farben e della Hoechst in Germania, della Rhone-Poulenc in Francia, per citare solo quelle più note. La produzione industriale di sofisticata strumentazione scientifica e di prodotti puri per analisi e per sintesi, largamente diffusasi specie dopo la seconda guerra mondiale, ha prodotto cambiamenti radicali nell'attività di laboratorio sia del chimico sintetico e analitico, sia di quello interessato a problemi di struttura molecolare. Il vero dramma del chimico del XIX secolo era infatti la purificazione e l'identificazione dei composti sintetizzati, che costringeva a un massacrante lavoro sperimentale in laboratorio, con risultati incerti e variabili da caso a caso. Per di più si richiedeva l'uso di quantità massicce di reagenti dalle quali si ottenevano, dopo infinite purificazioni con tecniche chimiche (cristallizzazione, distillazione, sublima374
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
zione), piccole quantità di prodotto. Il chimico dispone invece, oggi, di tecniche chimico-fisiche estremamente raffinate che permettono di ottenere in breve tempo prodotti purissimi, di determinarne in maniera precisa la composizione e la struttura e, per di più, di lavorare con quantità microscopiche di sostanza. La tecnica più semplice per la purificazione e l'identificazione di molecole complesse, la cromatografia, messa a punto nel 1906 dal botanico russo Michail Semenovic Cvet e perfezionata negli anni quaranta da John Martin e da Richard Synge, è basata sul fatto che le molecole aderiscono in maniera diversa a un substrato solido (carta, polvere d'ossido d'alluminio, gel di silice, ecc.). Facendo quindi passare una soluzione contenente diverse sostanze, anche molto simili chimicamente, attraverso un supporto solido (per esempio un tubo contenente ossido d'alluminio o una striscia di carta), esse procedono con velocità diversa e sono quindi separabili e identificabili. La cromatografia su carta, quella su colonna e, successivamente, la cromatografia in fase gassosa, hanno portato enormi contributi alla chimica analitica e a quella preparativa (in particolare delle molecole d'interesse biologico), e sono oggi tecniche standard a disposizione di tutti i laboratori. Un'altra importante tecnica di separazione di molecole con peso molecolare elevato, 1'ultracentrz/ugazione, inventata nel 1923 dallo svedese Theodor Svedberg, utilizza la proprietà per la quale, facendo ruotare ad altissima velocità una soluzione contenente molecole, quelle di massa più elevata vengono spinte verso l'esterno per effetto della forza centrifuga. Sempre per molecole di grandi dimensioni come le proteine un altro svedese, Arne Wilhelm Tiselius (1902-71), inventò nel 1936 l'elettroforesi, una tecnica che permette la separazione delle molecole sulla base delle cariche elettriche distribuite sulla loro superficie. Nel periodo 1916-17 Fritz Pregl (1869-1930; premio Nobel 1923) introdusse la tecnica microanalitica che in breve tempo soppiantò le tecniche analitiche classiche sviluppate nel xrx secolo, rendendo possibile la determinazione della costituzione di sostanze naturali e di interesse biologico che sono disponibili solo in quantità piccolissime. A queste tecniche si aggiunsero prima l' ultramicroscopia e la microscopia a emissione di campo, poi la microscopia elettronica e infine, recentemente, la microscopia per effetto tunnel a scansione (STM) e la microscopia a forza atomica (AFM). Queste ultime permettono addirittura di vedere singoli atomi su superfici. 1) La strutturistica chimica e i metodi d'indagine chimico-/isica 1
La determinazione della struttura e della dinamica molecolare è diventata nel xx secolo uno dei principali campi d'indagine della chimica strutturale e si avvale di tecniche sperimentali potenti, grazie allo sviluppo di un'industria di strumentazione scientifica ad altissima tecnologia. I principali metodi sperimentali utilizzati per questo tipo d'indagine sono le varie spettroscopie ottiche in tutte le regioni I Per le tematiche riguardanti la fisica affrontate ai punti I, 2, 3 di questo paragrafo si
rimanda al cap. questo volume.
375
www.scribd.com/Baruhk
VI
del vol.
VIII
e al cap.
VIII
di
Gli sviluppi della chimica nel xx secolo
dello spettro elettromagnetico, la spettroscopia di diffusione Raman, la spettroscopia di risonanza magnetica nucleare e la spettroscopia a raggi X. La spettroscopia nella regione dello spettro infrarosso studia le vibrazioni molecolati dovute alle oscillazioni degli atomi intorno alle loro posizioni d'equilibrio. Le bande di assorbimento infrarosse sono dovute alla comparsa durante la vibrazione di un momento di dipolo che interagisce con la radiazione elettromagnetica. L'attribuzione delle bande di assorbimento infrarosso a vibrazioni caratteristiche di gruppi chimici ha fornito alla chimica uno strumento essenziale per il riconoscimento della struttura e della composizione chimica delle molecole. Da questo punto di vista lo spettro infrarosso rappresenta una vera e propria impronta digitale della struttura molecolare. All'interpretazione degli spettri infrarossi delle molecole complesse, iniziata nel 1905 con i lavori di Coblentz, hanno contribuito schiere di ricercatori in tutto il mondo. Importanti scuole di spettroscopia molecolare si sono sviluppate, nell'arco di tempo che va dal 1930 al 1960, grazie all'opera di Jean Lecomte a Parigi, di Reinhard Mecke a Friburgo, di George Pimentel a Berkeley, di San-ichiro Mizushima e Takehiro Shimanouchi a Tokio. Dopo la seconda guerra mondiale la disponibilità di spettrografi commerciali ha aperto la strada alla diffusione della spettroscopia infrarossa come metodo analitico nei laboratori di chimica organica. A partire dal 1960 sono stati compilati atlanti di spettri, successivamente incorporati in enormi database di calcolatori, che consentono il riconoscimento immediato di prodotti chimici ottenuti per sintesi. Nel 1928 l'indiano Chandrasekhara Venkata Raman (premio Nobel nel 1930) sviluppò la spettroscopia che porta il suo nome e che è complementare a quella infrarossa in quanto permette di osservare vibrazioni molecolari che sono spesso inattive nello spettro infrarosso. L'effetto Raman, previsto teoricamente dal fisico austriaco A. Smekral nel 1923 e sviluppato indipendentemente in Russia da L. Mandel'shtam, è un effetto di diffusione della radiazione elettromagnetica dovuto alla comparsa di un momento di dipolo indotto. La teoria dell'effetto Raman, sviluppata da G. Placzek, mostra che, se si invia su un campione una frequenza V0 che non viene assorbita, si ottiene, oltre all'emissione di radiazione diffusa alla stessa frequenza (effetto Rayleigh) anche radiazione alle frequenze V0 ± vk, dove vk è una delle frequenze di vibrazione del sistema molecolare. Le righe che compaiono alle frequenze V0 - vk prendono il nome di righe Stokes e quelle a frequenze v 0 + vk di righe anti-Stokes. Per molti anni la spettroscopia Raman restò confinata in laboratori specializzati finché nel 1952 H. L. Welsch sviluppò la lampada a vapori di mercurio chiamata Toronto are che permise la produzione commerciale di spettrografi Raman e la loro diffusione nei laboratori di ricerca. Con la comparsa dei laser la spettroscopia Raman divenne, dopo le prime esperienze del 1962 di S. P. S. Porto, D. L. Wood e B. P. Stoicheff con laser a rubino, una delle tecniche più diffuse per lo studio della struttura molecolare, grazie alla coerenza e direzionalità della radiazione laser. A partire dagli anni settanta, grazie alla disponibilità di laser a impulsi
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
ultracorti della durata del picosecondo (1 ps = w- 12 s) e del femtosecondo (1 fs= w-15 s), si sono sviluppate potenti tecniche di ottica non lineare, come la spettroscopia CARS (Coherent anti-Stokes Raman Spectroscopy), che hanno aperto nuovi orizzonti alla strutturistica molecolare, allo studio di cinetiche veloci e alla determinazione di specie instabili con tempi di vita brevissimi. L'altra tecnica chimico-fisica che si è rivelata fondamentale per lo studio e l'identificazione delle molecole è la risonanza magnetica nucleare (NMR). I nuclei atomici possiedono uno spin come gli elettroni e possono quindi generare campi magnetici. Il campo magnetico nucleare è estremamente sensibile al campo magnetico elettronico che dipende dallo stato di legame e quindi dalla posizione relativa degli atomi nella molecola. La risonanza magnetica nucleare è basata sul fatto che gli stati di spin nucleare sono quantizzati e separati da energie relativamente piccole, dell'ordine delle energie di fotoni nella regione delle frequenze radio. La separazione tra i livelli dipende dal campo magnetico esterno che serve per orientare gli spin nucleari. In pratica transizioni tra stati di spin nucleare si ottengono usando frequenze radio nella regione compresa tra circa 2 e 300 Megahertz. Variando opportunamente la frequenza radio e il campo magnetico, il nucleo entra in risonanza e la radiofrequenza viene assorbita. La teoria della risonanza magnetica fu sviluppata negli anni trenta dai fisici, in particolare da Isidor Rabi e da Felix Bloch. Nel 1938 Rabi (che nel 1944 ottenne il premio Nobel per le sue ricerche sulle proprietà magnetiche dei nuclei) fece un primo esperimento di misura dei momenti magnetici nucleari in fasci molecolari e nel 1940 Bloch determinò il momento magnetico del neutrone. I primi veri esperimenti di risonanza magnetica nucleare furono eseguiti da E. M. Purcell e contemporaneamente dallo stesso Bloch nel 1946. Purcell e Bloch ricevettero il premio Nobel nel 1952 per queste ricerche. L'NMR si affermò però come potente metodo d'indagine chimica solo negli anni settanta grazie alle ricerche di Richard Ernst (premio Nobel 1991). Ernst, in collaborazione con William A. Anderson sviluppò la tecnica dell'NMR pulsata, nella quale si utilizzano impulsi brevissimi, invece di radiazione continua a radiofrequenze, per eccitare i nuclei. Questi ritornano allo stato fondamentale emettendo un segnale che diminuisce nel tempo, segnale che viene misurato ed elaborato con la tecnica della trasformata di Fourier producendo uno spettro con risonanze caratteristiche delle molecole in esame. Nel 1971 Jean Jeener propose la spettroscopia NMR bidimensionale nella quale il segnale ottenuto per eccitazione dei nuclei con impulsi ad alta frequenza di ripetizione è analizzato da una doppia trasformata di Fourier. Da allora l'NMR è diventata la tecnica principe a disposizione degli organici per il riconoscimento delle specie molecolari. La diffrazione a raggi X è la principale tecnica chimico-fisica di base per la determinazione della struttura tridimensionale delle molecole. Dopo l'esperienza dei Bragg sulla struttura del diamante, la diffrazione dei raggi X fu largamente utilizzata fino al 1930 per determinare soprattutto la stereochimica di molecole semplici, usando tecniche fotografiche. Nel 1916 Peter Debye (1884-1966) e Pau! Scherrer in Svizzera 377
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
e, contemporaneamente, Albert Hull negli Stati Uniti, svilupparono il metodo delle polveri che permetteva di studiare anche materiali non disponibili in forma di singoli cristalli. Nel 1922 William Henry Bragg (1862-1942) aprì la strada allo studio della struttura delle molecole organiche determinando quella del naftalene e dell'antracene. Fino al 1930 la struttura molecolare era determinata a partire dalle figure di diffrazione misurate sperimentalmente, assumendo un modello possibile della struttura e utilizzando la tecnica delle approssimazioni successive (trial and errar). A quel punto ci si rese conto che, poiché le figure di diffrazione non sono altro che la trasformata di Fourier tridimensionale della struttura, il problema si poteva risolvere calcolando la trasformata di Fourier inversa. Nel 1930, con lo sviluppo della tecnica dell'analisi di Fourier che permette di ottenere mappe della densità elettronica nei cui massimi si localizzano gli atomi, la struttura delle molecole complesse divenne accessibile, grazie anche ai miglioramenti tecnici sia nella rivelazione sia nella produzione dei raggi X. La struttura della prima molecola di grandi dimensioni, la stricnina, fu ottenuta nel 1948 da]. M. Biyvoet, quasi contemporaneamente a quella determinata con metodi puramente chimici dal gruppo diretto a Oxford da sir Robert Robinson. Nel 1955 Dorothy Crowfoot Hodgkin e il suo gruppo determinarono la struttura della vitamina B12 , di formula C63 H 84 N 140 14PCo. Per questa ricerca che durò otto anni e per la determinazione della struttura della penicillina, la Hodgkin ricevette nel 1964 il premio Nobel. Nel 1953 M. F. Perutz mise a punto il metodo degli atomi pesanti che consiste nell'incorporare in una molecola di grandi dimensioni un atomo con molti elettroni come il mercurio o l'oro, senza alterare la disposizione spaziale degli atomi. In questo modo fu possibile a John C. Kendrew determinare nel 1955 la struttura della mioglobina, una proteina con 2500 atomi, e in seguito allo stesso Perutz di determinare la struttura dell'emoglobina che contiene ben w.ooo atomi. Il risultato più noto della strutturistica con i raggi X è però la struttura ad a-elica del DNA ottenuta nel 1953 da Francis Harry Crick e da James Dewey Watson, sulla base di una previsione teorica fatta da Pauling. Nel 1950 gli americani Herbert Aron Hauptmann e Jerome Karle iniziarono un complesso lavoro di ricerca cristallografica che li portò nel periodo 1960-70 a elaborare metodi statistici, detti metodi diretti, per la determinazione della struttura tridimensionale delle molecole, utilizzando le intensità delle macchie di diffrazione che contengono informazioni importanti sulle fasi dei fattori di struttura. Per queste ricerche essi ottennero nel 1985 il premio Nobel. Un altro successo spettacolare della strutturistica X è stato recentemente quello della determinazione della struttura tridimensionale della batteriorodopsina, realizzata nel periodo 1980-1985 da tre ricercatori tedeschi, J. Deisenhofer, R. Huber e H Mischel, che ottennero il premio Nobel nel 1988. 2) Struttura atomica e teoria elettronica del legame chimico
L'ipotesi di Le Beli e Van't Hoff, secondo cui le quattro valenze dell'atomo di carbonio sono dirette ai vertici di un tetraedro, aveva aperto fin dal 1874 la strada
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
verso una nuova concezione della struttura delle molecole. L'ipotesi si era dimostrata fruttuosa per la comprensione dell'attività ottica, dell'isomeria e in generale della struttura spaziale delle molecole complesse. Ci vollero però molti anni prima che essa venisse confermata sperimentalmente con tecniche chimico-fisiche. Nel 1895 Wilhelm Rontgen (1845-1923) aveva scoperto i raggi X, una radiazione elettromagnetica di lunghezza d'onda molto più piccola di quella dei raggi ultravioletti. Dopo pochi anni, nel 1904, Barkla riuscì a dimostrare che ogni elemento, se bombardato con raggi catodici, emette raggi X caratteristici dell'elemento stesso e che la loro frequenza v aumenta al crescere del peso atomico. Nel 1913 Gwyn Jeffreys Moseley (1887-1915) trovò che la frequenza emessa presentava, tra un elemento e quello che lo seguiva nel sistema periodico, una differenza che obbediva alla relazione V=A(Z-b) 2
dove A e b sono delle costanti e Z è un numero intero, caratteristico dell'elemento, che egli chiamò numero atomico. Il numero atomico è il numero d'ordine che l'elemento occupa nel sistema periodico e lo stesso Moseley si rese conto che esso rappresentava anche il numero intero di cariche positive del nucleo atomico. Un passo decisivo verso lo sviluppo della tecnica raggi X come metodo per lo studio della struttura dei cristalli e della conformazione spaziale delle molecole fu realizzato da Max von Laue nel 1912. Con l'aiuto di Paul Ewald, studente di Arnold Sommerfeld, e partendo dall'ipotesi che i raggi X fossero della stessa natura dei raggi luminosi e che ne differissero solo per la lunghezza d'onda molto più piccola, arrivò alla conclusione che, a causa della disposizione ordinata degli atomi nei cristalli, questi potessero servire da reticoli di diffrazione per i raggi X. Questi effetti di diffrazione vennero immediatamente confermati da Walter Friedrich e Paul Knipping, assistenti di von Laue. Non appena venuti a conoscenza del fenomeno della diffrazione, Bragg e suo figlio William Lawrence (1890-1971) determinarono con i raggi X la struttura del diamante, composto solo da atomi di carbonio, e dimostrarono in maniera definitiva l'organizzazione tetraedrica degli atomi di carbonio nello spazio. La diffrazione dei raggi X è divenuta rapidamente la tecnica principe per la determinazione della struttura tridimensionale delle molecole. All'inizio del secolo gli interessi dei chimici e dei fisici erano abbastanza distinti. I primi avevano a che fare con un mondo discreto e discontinuo, fatto di atomi e di molecole che maneggiavano tranquillamente in laboratorio e che sapevano combinare a piacimento. I secondi avevano invece di fronte un nebuloso universo continuo, impregnato di concetti astratti come onde elettromagnetiche, campi o potenziali e controllato dall'apparato matematico della meccanica classica e dell'elettromagnetismo. La natura sconosciuta del legame chimico non poteva non costringere però i chimici a interessarsi alle interazioni di natura fisica. Le teorie dell'elettrochimica, in particolare la teoria della dissociazione elettrolitica di Arrhenius, mostravano chiaramente che le cariche elettriche trasportate dagli ioni si presentavano anch'esse in 379
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
maniera discreta e discontinua. Già nel 1873 Maxwell si era reso conto che tuttr 1 cationi trasportavano una carica elettrica positiva multipla della stessa quantità elementare e che lo stesso facevano gli anioni con le cariche negative. Il fatto che l'elettricità potesse essere discreta e particellare sembrava però un'eresia ai fisici, abituati a discutere i fenomeni della conduzione in termini di fluido elettrico. Perché questa idea fosse accettata doveva awenire una vera e propria rivoluzione concettuale nella fisica; rivoluzione che si svolse in pochi anni e portò in un primo tempo alla scoperta dell'elettrone e successivamente allo sviluppo della fisica quantistica. La natura corpuscolare dell'elettricità fu messa in evidenza dalle scariche elettriche nei gas a bassa pressione. Già nel 1869 J ohann Wilhelm Hittorf, che aveva studiato a lungo la conduzione elettrolitica, era giunto alla conclusione che durante la scarica elettrica nei gas venivano emessi dal catodo raggi di natura ignota, i raggi catodici, che si propagavano in linea retta verso l'anodo. Gli esperimenti di Eugen Goldstein nel 1886 e di William Crookes (1832-1919) nel 1888, portarono all'ipotesi che i raggi catodici fossero formati da particelle di elettricità negativa. Nel 1891 George J ohnstone Stoney suggerì per la neonata particella di carica negativa il nome elettrone che venne rapidamente accettato. L'elettrone divenne però uno dei costituenti fondamentali della materia solo dopo che nel 1897 a Cambridge, Joseph John Thomson (1856-1940), studiando la deviazione dei raggi catodici in campi elettrici e magnetici, riuscì a calcolare il rapporto e/m tra la carica e la massa mostrando che la massa era circa 1/1800 ·della massa dell'atomo d'idrogeno. Se le scariche elettriche riuscivano a estrarre elettroni dagli atomi dei gas, doveva allora prodursi un equivalente numero di particelle positive. L'esistenza di questi raggi di particelle positive, scoperti da Goldstein nel 1886, fu confermata definitivamente da Wilhelm Wien, il quale nel 1897 dimostrò che la loro massa era migliaia di volte maggiore di quella dell'elettrone. La scoperta dell'elettrone rappresenta una tappa fondamentale nello sviluppo della teoria della valenza. L'atomo in divisibile dei filosofi greci, la cui esistenza come componente ultimo della materia aveva dato luogo a tante discussioni e controversie nel corso del xrx secolo, risultava ora composto di particelle di dimensioni minori di quella atomica e per di più cariche elettricamente. Anche l'elettricità, a lungo considerata un fluido continuo, acquistava una struttura particellare e l'attrazione tra cariche opposte diventava ora l'interazione fondamentale nell'interpretazione della struttura atomica. Ben presto cominciarono a fiorire modelli di struttura atomica in cui elettroni e cariche positive interagivano tra loro per dare luogo a un atomo neutro. In particolare Thomson propose un modello di atomo formato da una sfera uniforme di carica positiva delle dimensioni dell'atomo in cui erano immersi gli elettroni disposti su un piano fino a un certo numero e per numeri maggiori su strutture ad anello o a corteccia. Gli elettroni, oscillando con frequenze fisse intorno alle loro posizioni d'equilibrio, emettevano o assorbivano le righe spettrali che nel frattempo erano state osservate dagli spettroscopisti.
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
Un passo ulteriore fu compiuto da Ernest Rutherford (x87I-1937). Basandosi su misure effettuate bombardando lamine sottili con particelle a, egli suggerì, nel 1911, un modello di atomo alternativo rispetto a quello di Thomson. Nel nuovo modello, infatti, la carica positiva era concentrata in un volume centrale molto più piccolo delle dimensioni atomiche, poiché aveva dimensioni dell'ordine di w-13 centimetri. Sviluppando ulteriormente le proprie ricerche, Rutherford, tra il 1919 e il 1921, propose per l'atomo una struttura planetaria costituita da un nucleo formato da particelle di carica positiva (protoni) e da particelle neutre (neutroni) intorno al quale ruotavano gli elettroni su orbite circolari, allo stesso modo in cui i pianeti ruotano intorno al Sole. Restava ovviamente oscuro come mai la massa del nucleo non corrispondesse al numero atomico e che, per lo stesso numero atomico, si potessero avere differenti isotopi. Rutherford aveva già postulato l'esistenza di una particella neutra di massa eguale a quella del protone. Il problema fu definitivamente risolto con la scoperta sperimentale del neutrone, fatta nel 1932 da James Chadwick, che ottenne il premio Nobel nonostante riconoscesse, nel suo discorso all'Accademia delle Scienze di Stoccolma, che buona parte del merito era da attribuire al fisico italiano Giuseppe Occhialini. Il modello atomico di Rutherford presentava un affascinante parallelismo tra il mondo dell'infinitamente grande e quello dell'infinitamente piccolo, tra elettroni e pianeti, tutti assoggettati a muoversi su orbite fisse dalle implacabili leggi deterministiche della dinamica classica. L'atomo di Rutherford urtava però contro insormontabili difficoltà create dall'elettromagnetismo di Maxwell secondo cui si prevedeva che una carica in moto su un'orbita, essendo sottoposta a una accelerazione, doveva emettere continuamente radiazione, perdendo quindi energia. In questo modo l'atomo non era stabile e dopo un tempo brevissimo l'elettrone doveva precipitare sul nucleo. Un brillante tentativo di salvare il determinismo della meccanica classica collegato al concetto di orbita fu fatto nel 1913 dal fisico danese Niels Bohr (1885-1962), il quale utilizzò un'ipotesi rivoluzionaria per superare l'ostacolo delle leggi dell'elettromagnetismo. Bohr partì da un'ipotesi avanzata da Max Planck nel 1900 per spiegare la radiazione del corpo nero. Planck aveva supposto che la radiazione non potesse essere emessa e assorbita in maniera continua ma solo per quantità discrete, che aveva chiamato quanti di luce. Riprendendo l'ipotesi di Planck, Bohr sviluppò quella che oggi prende il nome di vecchia teoria dei quanti. Nel modello di Bohr gli elettroni conservavano la realtà classica delle orbite circolari di Rutherford, ma la loro energia poteva avere solo valori discreti, definiti da due condizioni dette di quantizzazione. La prima di queste condizioni imponeva che la differenza di energia tra due orbite fosse eguale a un multiplo della quantità hv, dove h è una costante introdotta da Planck e v la frequenza della radiazione emessa o assorbita nel salto tra due orbite discrete. La seconda condizione quantizzava il momento angolare dell'elettrone, cioè la grandezza più importante in meccanica classica per descrivere
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
problemi di rotazione, imponendo che fosse eguale a un multiplo di hvlc, dove c è la velocità della luce. Bohr riuscì a ottenere uno stupefacente accordo tra la sua teoria e le relazioni empiriche (trovate da diversi studiosi, in particolare da Balmer e da Rydberg) tra le frequenze dello spettro visibile dell'idrogeno. Il modello atomico di Bohr, anche se lontano dal fornire una comprensione corretta della struttura della materia, gettò però le basi per una ristrutturazione del sistema periodico degli elementi in termini elettronici. Al principio di costruzione del sistema periodico, o di aufbau, enunciato da Bohr nel 1921, si giunse anche attraverso due scoperte importanti: la radioattività e l'esistenza di differenti isotopi degli elementi. La scoperta della radioattività partì dall'osservazione (1886)di Antoine Henri Becquerel che il solfato di uranio e potassio emetteva spontaneamente una strana radiazione capace di impressionare le lastre fotografiche. Nel 1899 Rutherford provò che l'uranio emetteva due tipi di radiazioni che chiamò a e [3, e che alcuni anni dopo risultarono essere rispettivamente nuclei di elio ionizzato due volte (He++) ed elettroni di alta energia cinetica. Marie Sklodowska (1867-1934) e il marito Pierre Curie isolarono nel 1898 il polonio e il radio e per questa scoperta ottennero nel 19n il premio Nobel. In breve tempo il sistema periodico si arricchì di nuovi elementi come l'attinio scoperto nel 1899 e il radon nel 1900. Nel 1913 Rutherford e Frederick Soddy dimostrarono poi che quando un elemento radioattivo emette una particella a, il suo peso atomico diminuisce di 4 unità e la carica di due unità, dando origine a un elemento che si trova due posti indietro nel sistema periodico. Verso il 1910 erano già noti una quarantina circa di elementi radioattivi, molti dei quali avevano esattamente le stesse proprietà chimiche ma peso atomico diverso. Per esempio erano già state isolate dieci varietà di torio con peso atomico variabile da 232 a 212, due di uranio e sei di attinio, e non c'era posto nel sistema periodico per sistemare questa moltitudine di elementi. Questo fatto sembrava rimettere in discussione il sistema periodico nel quale erano disponibili, tra la posizione dell'idrogeno e quella dell'uranio, solo sei posti (corrispondenti ai numeri atomici 43, 61, 72, 75, 85 e 87) per sistemare un numero molto maggiore di elementi. Nel periodo 1912-1913 Thomson e Francis William Aston, facendo passare atomi di neon attraverso campi magnetici, si accorsero dell'esistenza di due tipi diversi di atomi di neon, uno di peso atomico 20 e l'altro di peso atomico 22. Su questa base, e utilizzando i risultati del decadimento radioattivo Soddy formulò il concetto di isotopia, cioè dell'esistenza di atomi aventi la stessa natura chimica ma di peso atomico differente. L'apparecchiatura costruita da Aston e in seguito perfezionata ulteriormente, prese il nome di spettrografo di massa, in quanto permetteva di separare ioni o atomi neutri di massa diversa. Con questa tecnica fu facile isolare e caratterizzare isotopi anche di elementi ben noti. Così, per esempio, William Francis Giauque dimostrò nel 1929 che esistevano tre isotopi dell'ossigeno rispettivamente di peso atomico 16, 17 e 18 e nel 1931 Harold Clayton Urey scoprì un isotopo dell'idrogeno di peso atomico 2, il deuterio.
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
Tutte queste ricerche avevano ormai definitivamente chiarito alcuni punti: r) la posizione di un elemento nel sistema periodico è definita non dal peso atomico, ma dal numero atomico Z che indica il numero di cariche positive nel nucleo (protoni) e quindi anche il numero di elettroni per atomo neutro; 2) la massa dell'atomo è determinata solo dal nucleo; 3) il comportamento chimico di un elemento è dovuto solo agli elettroni. Come accennato precedentemente, nel 1921 Bohr, con l'aiuto di Sommerfeld e basandosi su un'idea formulata nel 1916 da Walther L. Kossel, ricostruì il sistema periodico in termini di struttura elettronica. Secondo il principio di au/bau di Bohr le orbite elettroniche sono distribuite negli atomi in gusci o « cortecce » che racchiudono il nucleo come gli strati successivi di una cipolla. Ogni guscio, contraddistinto da una lettera (K, L, M, N, ecc.), è caratterizzato da un numero intero n (numero quantico principale) che può prendere i valori r, 2, 3, ecc. In ogni guscio possono prendere posto al massimo 2n 2 elettroni. Il guscio K (n= l) contiene quindi al massimo 2 elettroni, il guscio L (n= 2) ne contiene al massimo 8, quello M (n= 3) r8 e così via. Ogni guscio è ulteriormente suddiviso in sottogusci (s, p, d, /, ... ), caratterizzati da un secondo numero intero l che quantizza il momento angolare orbitale degli elettroni (numero quantico secondario) e che può prendere tutti i valori interi da o fino a n - l. In ognuno dei sottogusci possono essere sistemati al massimo 2(2l +l) elettroni. Un terzo numero quantico, il numero quantico magnetico m, fu utilizzato successivamente da E. C. Stoner per calcolare il numero di elettroni in ogni sottoguscio. Il numero quantico m prende tutti i valori interi da - l a +l, compreso il valore o. In questo modo nel sottoguscio s si accomodano 2 elettroni, in quello p 6, in quello d ro, ecc. Il principio di esclusione di Wolfgang Pauli del 1925 e la scoperta dello spin dell'elettrone fatta da George Eugene Uhlenbeck e da Samuel Abraham Goudsmit nel 1926 completarono il quadro della vecchia teoria dei quanti. L'introduzione del numero quantico di spin s, che può prendere solo i valori + ~ e - V2 per l'elettrone, si rivelò di grandissima importanza per lo sviluppo successivo della chimica quantistica. Il principio di esclusione di Pauli impone che due elettroni non possano avere la stessa quaterna di numeri quantici n, l, m e s. In particolare, se due elettroni hanno lo stesso valore di n, l e m devono avere spin opposti (antiparalleli), l'uno con valore + ~ e l'altro con valore - V2. La teoria di Bohr si rivelò di colpo come la base teorica per la comprensione del comportamento chimico degli elementi. Già nel 1904 il chimico tedesco Richard Abegg si era reso conto della particolare inerzia chimica dei gas nobili che hanno un guscio esterno completo. Su questa base Kossel riuscì nel 1916 a spiegare la formazione di ioni positivi e negativi come quelli che si incontravano nei processi elettrolitici. Secondo Kossel gli elettroni che si trovano nei gusci esterni determinano la reattività dei composti. Se l'elemento ha un guscio esterno non completo tenderà ad acquistare elettroni fino a riempirlo per raggiungere la struttura elettronica del
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
gas nobile che lo segue nel sistema periodico. Se al contrario l'elemento ha qualche elettrone in eccesso, rispetto al gas nobile che lo precede, tenderà a perdere questi elettroni per ricondursi a una struttura elettronica stabile. Gli elettroni esterni possono essere quindi facilmente ceduti o acquistati, dando luogo a ioni positivi e negativi. L'affinità dei chimici dell'Ottocento era finalmente interpretata su basi teoriche, come la tendenza a riempire di elettroni i gusci esterni. Le idee di Abegg e di Kossel, inserite nel quadro della teoria di Bohr, spiegavano la formazione di ioni, ma non riuscivano ovviamente a rendere conto della stabilità della maggior parte delle molecole che sono neutre e non contengono ioni. In particolare non rendevano conto dell'esistenza di molecole biatomiche formate da due atomi identici come Cl2 , N 2 , 0 2 , ecc. Un passo decisivo, che si rivelò subito di importanza fondamentale per la comprensione del legame chimico, fu compiuto, sempre nel 1916, dal chimico americano Gilbert Newton Lewis (r875-1946). Secondo
• •
• • Cl
• •
o
o
o
• +
Cl
o o
o
• •
• Cl • • • •
o
o
o o
o
Cl o
o
o
Fig. 6. Formazione di una molecola di cloro dagli atomi separati.
la teoria sviluppata da Lewis e successivamente ampliata e completata da lrving Langmuir (r88r-1957) nel periodo I9r6-r9I9, due atomi sono tenuti insieme da un legame, detto covalente, creato dal fatto che ognuno dei due atomi mette in comune
H.
H
• •• •• c c • • •• •H H• Molecola di etilene secondo Lewis
Molecola di acetilene secondo Lewis Fig. 7.
uno o pm elettroni per completare il guscio esterno di elettroni. Per esempio l'a-· tomo di cloro ha sette elettroni nel guscio più esterno L. Se due atomi di cloro mettono in comune un elettrone, ognuno di essi completa il proprio guscio L con otto elettroni, dando così luogo a una molecola stabile di Cl2 , come rappresentato schematicamente nella fig. 6 dove gli elettroni sono rappresentati da puntini.
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
La molecola di etilene CH2 = CH2 è costituita da due atomi di carbonio ognuno con quattro elettroni nel guscio L, di cui due nel sottoguscio s e 2 in quello p, e da 4 atomi d'idrogeno ognuno con un elettrone nel guscio K. Mettendo in comune gli elettroni (vedi fig. 7) gli atomi d'idrogeno completano il guscio K con due elettroni mentre i due atomi di carbonio completano il guscio L con otto elettroni. I quattro elettroni in comune tra due atomi di carbonio formano un legame doppio. Nel caso dell'acetilene i due atomi di carbonio mettono in comune sei elettroni, formando un legame triplo. 3) La chimica quantistica e lo sviluppo della chimica-fisica
La vecchia teoria dei quanti, pur modificata con l'introduzione di orbite ellittiche da Sommerfeld, malgrado l'innegabile successo del principio di au/bau e l'interpretazione corretta dello spettro dell'atomo d'idrogeno e di altri elementi semplici, aveva nella propria struttura concettuale un difetto di base che era impossibile eliminare. Essa restava un magnifico tentativo di salvare quel grandioso edificio della dinamica classica che aveva rappresentato il trionfo della fisica del secolo precedente, ma che si dimostrava sempre più inadeguato al livello delle particelle elementari. Un gran numero di esperienze cruciali si era accumulato negli anni, mettendo in evidenza, senza possibilità di dubbio, una natura a volte corpuscolare e a volte ondulatoria sia della materia sia della radiazione. Usando l'ipotesi di Planck, Albert Einstein già nel 1905 aveva introdotto, per spiegare l'effetto fotoelettrico, un concetto rivoluzionario, secondo il quale i metalli emettono elettroni solo se colpiti da radiazione di frequenza v superiore a un valore minimo v0 (frequenza di soglia), che è specifico di ogni metallo. Einstein suppose che la radiazione elettromagnetica, nell'interazione con il metallo, si comportasse come composta di particelle, i fotoni, ognuno di energia hv, dove h è la costante di Planck. Solo se tale energia è superiore all'energia hv0 di soglia, gli elettroni vengono estratti dal metallo. Questa ipotesi, anche se poi verificata sperimentalmente da Robert A. Millikan nel 1916, era difficile da accettare in quanto gli ipotetici corpuscoli di luce, i fotoni, venivano associati a una frequenza v, caratteristica di onde e non di particelle. Nel 1923, in un famoso lavoro pubblicato sulla rivista americana « Physical Review », Arthur H. Compton, premio Nobel per la fisica nel 1927, discusse in dettaglio la differenza tra il comportamento ondulatorio e quello corpuscolare della radiazione. Se la luce è composta di fotoni, ognuno di essi quando colpisce un elettrone deve comportarsi come una palla di biliardo quando ne colpisce un'altra. In altre parole l'energia del fotone non può distribuirsi su tutti gli elettroni del metallo ma su uno solo di essi. Il fotone deve allora comunicare una certa quantità di moto all'elettrone, che verrà spostato dalla traiettoria iniziale diffondendo il fotone in una direzione che forma un angolo con quella della radiazione incidente (vedi fig. 8). Nel 1924, nella sua tesi di laurea intitolata Recherches sur la théorie des quanta,
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
fotone incidente momento hv/c
Fig. 8. Rappresentazione schematica dell'effetto Compton.
il fisico francese Louis de Broglie (1892-1987), portando alle estreme conseguenze l'ipotesi di Einstein, concluse che, se la radiazione possedeva una doppia natura ondulatoria e corpuscolare, anche gli elettroni potevano avere lo stesso comportamento dualistico. Questa ipotesi fu definitivamente verificata tra il 1925 e il 1927 da Clinton Joseph Davisson e Lester Halbert Germer in America e da George Paget Thomson in Inghilterra, i quali mostrarono che gli elettroni, proprio come i raggi X, possono essere diffratti dalla materia. I tempi erano ormai maturi per cercare una descrizione diversa della dinamica di particelle elementari come l'elettrone. L'ipotesi di de Broglie diede luogo in pochissimo tempo a una completa riformulazione della dinamica al livello microscopico, associando a ogni elettrone un'onda fittizia, rappresentata da una funzione d'onda V'· La nuova meccanica trovò nel 1926 la propria rappresentazione matematica nella ricerca degli autovalori e delle autofunzioni della famosa equazione d'onda, ottenuta dal fisico svizzero Erwin Schrodinger (1887-1961). A partire dall'equazione delle onde, Schrodinger definì infatti una funzione d'onda l/f, la cui evoluzione temporale soddisfaceva l'equazione
i1i4Jf=(-! V
2
+V)l/f
dove i è il numero complesso v-1, V il potenziale in cui si muove l'elettrone e V2 somma delle derivate seconde rispetto alle coordinate necessarie per descrivere il sistema. Da questa equazione si ottiene, con un'ipotesi sulla dipendenza temporale della funzione l/f, un'equazione indipendente dal tempo i cui autovalori En definiscono gli stati stazionari del sistema, cioè i livelli quantizzati di energia. L'equazione di Schrodinger indipendente dal tempo assume quindi la forma fj2
(- V 2 + V) V'.n =En VI.n 2m
Nello stesso periodo Werner Heisenberg (1901-76) presentò una formulazione
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
equivalente della meccanica quantistica in termini di algebra delle matrici con le regole di commutazione per gli operatori momento e coordinate, da cui scaturì il principio d'indeterminazione che porta il suo nome. Un passo decisivo per interpretare il significato fisico della funzione d'onda introdotta da Schrodinger fu compiuto da Max Born nel 1926. L'idea di Born, nata discutendo problemi di collisione tra atomi, ·può essere formulata dicendo che il prodotto del quadrato della funzione d'onda per un elemento di volume dr, rappresenta la probabilità di trovare la particella nell'elemento di volume. Con la pubblicazione nel 1927 del famoso lavoro di Heisenberg Ùber den anschaulichen Inhalt der quantentheoretischen Kinematzk und Mechanik nel quale veniva presentato il principio di indeterminazione e con la formalizzazione definitiva della meccanica quantistica realizzata da Paul Adrien Maurice Dirac, discussa in esteso nel 1930 nel libro The principles o/ quantum mechanics, la meccanica quantistica completava il proprio quadro teorico e formale divenendo lo strumento fondamentale per lo studio dei sistemi microscopici. Con la nuova meccanica l'elettrone perdeva completamente la propria identità di particella e diventava una nuvola di carica negativa intorno al nucleo. Alle funzioni d'onda elettroniche dell'atomo d'idrogeno e per estensione anche alle funzioni d'onda atomiche e molecolari in genere, fu dato il nome di orbitali. Nel trattamento quantistico ogni orbitale è caratterizzato, come le orbite di Bohr, dai quattro numeri quantici n, l, m e s, con l'enorme differenza che essi vengono ora derivati direttamente dalla teoria e non introdotti come ipotesi ad hoc come accadeva nella vecchia teoria dei quanti. Per ragioni storiche agli orbitali furono assegnati gli stessi simboli s, p, d, ecc. che Bohr aveva utilizzato per i sottogusci elettronici nel principio di aufbau. Si hanno quindi orbitali s (l= 0), orbitali p (l= 1), orbitali d (l= 2), ecc. L'equazione di Schrodinger, nella forma su citata, è valida per descrivere la dinamica di un solo elettrone. Per atomi con molti elettroni l'equazione è molto più complessa. Con l'aiuto di metodi approssimati e di particolari tecniche matematiche, il problema degli atomi a molti elettroni fu risolto con il contributo di diversi autori tra cui E. Fermi, P. Dirac, J. C. Slater e soprattutto D. R. Hartree e V. A. Fok. Le applicazioni alla chimica arrivarono in pochissimo tempo. La formulazione in termini di funzioni d'onda venne estesa nel 1927 da Fritz London (1900-54) e da Walter Heitler (1904-8!), allievi di Schrodinger, allo studio del legame chimico nella molecola d'idrogeno. Il problema affrontato da Heitler e London era quello di calcolare l'energia della molecola d'idrogeno H 2 , in cui due elettroni legano insieme due protoni. Quando i due protoni sono distanti l'energia totale è la somma di quella di due atomi d'idrogeno separati. Quando i due protoni sono a breve distanza, bisogna prendere in considerazione tutte le interazioni tra i due nuclei e i due elettroni (vedi fig. 9). Utilizzando il principio variazionale, una tecnica matematica che Lord Rayleigh aveva sviluppato per calcolare il minimo d'energia di un sistema oscillante, e tenendo conto della indistinguibilità degli elettroni enunciata da Heisenberg, Heitler e Lon-
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
2
l
a
i
a
b
due atomi d'idrogeno separati
due atomi d'idrogeno uniti
l'elettrone l interagisce solo con il nucleo a e l'elettrone 2 solo con il nucleo b
i due elettroni interagiscono tra di loro e con i due nuclei
Fig. 9. Schema del trattamento di Heitler e London.
don riuscirono a risolvere l'equazione di Schrodinger per la molecola d'idrogeno, ottenendo un accordo spettacolare tra le energie calcolate e quelle ottenute sperimentalmente con misure spettroscopiche. Il lavoro di Heitler e London conteneva troppa matematica per i chimici del . tempo e per di più era pubblicato su un giornale di fisica, lo « Zeitschrift fiir Physik ». Esso sarebbe probabilmente restato estraneo al mondo della chimica per lungo tempo se nel 1926, con una borsa di studio della Guggenheim Foundation, non si fosse recato proprio a Zurigo un giovane chimico americano, Linus Pauling (190194) che proveniva dal famoso California Institute of Technology (CalTech). Pauling capì subito le prospettive aperte dal lavoro di Heitler e London e dalla successiva estensione alla molecola ione d'idrogeno H/, realizzata dagli stessi autori. Ritornato al CalTech, dove tenne il primo corso di meccanica quantistica, Pauling si concentrò sul problema di generalizzare il trattamento di Heitler e London alle molecole complesse. Il metodo sviluppato da Pauling prese il nome di metodo del legame di valenza (VB) perché la sua struttura concettuale era sviluppata proprio in termini di legami di valenza che collegavano gli atomi a due a due. Nello sviluppare la teoria, Pauling prese lo spunto dal principio di esclusione di Pauli e dalla regola di massima molteplicità ottenuta nel 1925 da Friedrich Hund che stabilisce come gli elettroni, nel distribuirsi tra i vari orbitali, preferiscono stare da soli, prima di doversi · accoppiare a spio antiparalleli nello stesso orbitale. Nel metodo VB gli atomi sono legati a due a due da legami formati da due elettroni che si accoppiano a spio antiparalleli. I due elettroni, trovandosi preferenzialmente nella regione di spazio compresa tra i due nuclei, sono attratti da entrambi. Questa attrazione abbassa l'energia dei due atomi uniti rispetto a quella dei due atomi separati e rende quindi stabile il legame tra essi. Fondamentale per la teoria era quindi che solo elettroni spaiati riescono ad accoppiarsi formando legami chimici. Lo sviluppo del metodo VB è solo uno degli eccezionali contributi dati alla chimica moderna da Linus Pauling. Pauling era un esperto cristallografo e conosceva
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
Ibridazione sp3
Ibridazione sp2
Ibridazione sp
i quattro orbitali ibridi sono diretti ai vertici di un tetraedro
i tre orbitali ibridi sono in un piano. L'orbitale 2p è perpendicolare
i due orbitali ibridi sono allineati. I due orbitali 2p sono perpendicolari
Fig. 10. Orbitali ibridi del carbonio.
bene la conformazione spaziale delle molecole. Si rese subito conto che, distribuendo gli elettroni negli orbitali dell'atomo di carbonio secondo lo schema del legame di valenza, non era possibile ottenere la struttura tetraedrica caratteristica dei composti saturi come le olefine. In particolare, poiché il carbonio ha due elettroni in un orbitale 2s, già accoppiati a spin antiparalleli e due soli elettroni non appaiati nei tre orbitali 2p, era difficile capire perché esso fosse tetravalente. Nel 1928 Pauling riuscì a dimostrare che, se uno degli elettroni 2s viene eccitato nel terzo orbitale vuoto 2p, dando così origine a quattro elettroni spaiati, uno di tipo 2s e tre di tipo 2p, l'energia spesa per eccitare l'elettrone 2s nell'orbitale vuoto 2p è largamente compensata da quella che si guadagna formando quattro legami. Inoltre, i quattro legami che si formano si respingono l'un l'altro, riarrangiandosi in una struttura tetraedrica. Pauling diede il nome di ibridazione sp 3 a questo mescolamento degli orbitali. I composti del carbonio presentano però vari tipi di strutture spaziali. Oltre alla struttura tetraedrica dei composti saturi come le olefine, esistono molecole planari come i composti etilenici, molecole lineari come quelli acetilenici e soprattutto una grande varietà di composti aromatici con strutture ad anelli planari. Per spiegare queste strutture Pauling ipotizzò vari tipi di ibridazione di orbitali mescolando l'orbitale 2s con uno, due o tre orbitali 2p. Il trattamento di Pauling fu poi definitivamente formalizzato in forma matematicamente rigorosa ed esteso ad altri atomi da John Clark Slater nel 1930. Oltre alla struttura tetraedrica per l'ibridazione sp 3 si ottengono la struttura planare per l'ibridazione sp 2 e quella lineare per l'ibridazione sp. La distribuzione spaziale della carica elettronica negli orbitali ibridi è convenientemente rappresentata mostrando le zone dello spazio in cui è concentrata la maggior parte della carica (vedi fig. ro). Il metodo VB, per quanto molto vicino alla mentalità chimica, era macchinoso e complesso. Le difficoltà nascevano dal fatto che esistono molti modi per accoppiare a due a due gli atomi in una molecola poliatomica. Questa difficoltà fu supe-
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
00 Strutture di Dewar
Strutture di Kekulé
Fig. 11. Le cinque forme canoniche del benzene nel trattamento
VB.
rata da Pauling scrivendo la funzione d'onda di una molecola come combinazione lineare delle funzioni d'onda di tutte le possibili strutture indipendenti (strutture canoniche) concepibili per una molecola. Per esempio la funzione d'onda per gli elettroni 2p dell'anello di atomi di carbonio del benzene è rappresentata dalla combinazione lineare delle cinque funzioni d'onda che descrivono le cinque strutture indipendenti mostrate nella fig. rr. Le prime due strutture corrispondono a quelle postulate nel r865 da Kekulé, e le rimanenti tre furono proposte da Michael J. S. Dewar. Secondo l'interpretazione, l'anello benzenico viene descritto in termini di tante strutture «risonanti» tra di loro, che si trasformano cioè l'una nell'altra continuamente, in modo tale che nessuna sia in realtà una vera struttura fisica. L'esempio portato dai chimici sostenitori di questa teoria della risonanza era che un mulo è descrivibile come risonante tra la struttura di un cavallo e quella di un asino. La teoria del legame di valenza trovò un serio rivale in una teoria completamente diversa, detta degli orbitali molecolari (Mo), sviluppata congiuntamente nel periodo 1927-1928 da Hund a Gottingen e da Robert S. Mulliken (1896-1986) a Chicago. Nella teoria MO gli elettroni nella molecola d'idrogeno vedono lo scheletro formato dai due nuclei senza essere preferenzialmente legati l'uno a un nucleo e l'altro all'altro nucleo come nel metodo VB. Nel metodo MO esteso alle molecole complesse, gli elettroni esterni sono delocalizzati su tutta la molecola e vedono lo scheletro molecolare formato dai nuclei schermati dagli elettroni più interni. Nello sviluppare la teoria MO per la molecola d'idrogeno, Hund e Mulliken partirono dall'idea che se l'atomo di elio si divide in due atomi d'idrogeno, i suoi due elettroni ls si distribuiscono simmetricamente intorno all'asse H- -H. L'idea degli atomi uniti e separati permise di interpretare gli spettri sulla base di diagrammi che correlano i livelli atomici con quelli molecolari. Questi diagrammi di «correlazione» si rivelarono d'importanza fondamentale per l'interpretazione delle proprietà spettroscopiche delle molecole. Nel 1929 John Lennard Jones pubblicò un trattamento generale della dipendenza dei livelli energetici delle molecole biatomiche Li 2 , Be2 , B2 , C2 , N 2 e 0 2 dalla distanza internucleare e dimostrò che i due metodi MO e VB davano praticamente gli stessi risultati, anche se partivano da ipotesi diverse. 390
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
L'applicazione del metodo MO alle molecole poliatomiche si rivelò molto p1u semplice di quella del metodo VB. Nel 1930 Walter Hiickel (1896-1980) pubblicò un trattamento semiempirico del metodo MO per le molecole aromatiche che ebbe un'enorme influenza, data la semplicità del formalismo, sui successivi sviluppi della chimica-fisica organica. Nel 1932 Mulliken sviluppò una variante del metodo MO, la cosiddetta approssimazione LCAO (Linear Combination o/ Atomic Orbitals) in cui le funzioni d'onda MO per molecole poliatomiche vengono scritte come combinazione lineare di orbitali atomici. A un allievo di Mulliken, C.C.]. Roothan, si devono negli anni cinquanta gli sviluppi più importantt..del metodo LCAO. Utilizzando la tecnica messa a punto da Hartree e Fok per gli atomi a molti elettroni, Roothan sviluppò il metodo LCAO-SCF (Self Consistent Fieltf) nel quale le energie dei livelli molecolari vengono migliorate con cicli di raffinamento successivo delle autofunzioni molecolari. Negli anni quaranta i metodi MO e VB si svilupparono parallelamente, ma all'inizio degli anni cinquanta, Charles Coulson (1910-71), Christopher Longuet-Higgins (n. 1923) e M. J. S. Dewar (n. 1918) a Oxford pubblicarono una serie di lavori nei quali mettevano in evidenza la semplicità del metodo MO rispetto al macchinoso e complesso metodo VB. Lo sviluppo dei calcolatori elettronici di grande potenza iniziato negli anni sessanta ha fornito alla chimica quantistica gli strumenti ideali per i complessi calcoli necessari per ottenere i livelli energetici e le proprietà spettroscopiche di molecole complesse. Oggi esistono programmi di calcolo sofisticati che permettono di eseguire sia calcoli ab initio (cioè calcoli in cui sono considerate le interazioni fra tutti gli elettroni e tutte quelle degli elettroni con i nuclei), sia calcoli semiempirici in cui sono utilizzate semplificazioni. Molti di questi programmi sono utilizzati di continuo anche nei laboratori di chimica organica e normalmente gli studenti se ne servono nelle esercitazioni. Alle tecniche classiche di soluzioni dell'equazione di Schrodinger con il metodo variazionale si sono affiancate oggi tecniche molto più potenti, come quella della matrice densità, che usano rappresentazioni della meccanica quantistica diverse e più potenti di quella di Schrodinger, come la rappresentazione di Heisenberg e quella di interazione per trattare problemi in cui gli operatori dipendono dal tempo. Hund e Mulliken erano spettroscopisti, perciò erano interessati soprattutto ai processi di interazione tra la radiazione elettromagnetica e le molecole. Essi riuscirono a interpretare correttamente, usando la teoria degli orbitali molecolari, la struttura dei livelli elettronici delle molecole biatomiche e la struttura fine degli spettri, dovuta alle vibrazioni dei nuclei nel campo degli elettroni e alle rotazioni della molecola intorno ai suoi assi d'inerzia. Contributi essenziali allo studio delle proprietà spettroscopiche delle molecole biatomiche vennero dai lavori di Gerhard Herzberg (n. 1904), premio Nobel nel 1971 per il suo apporto alla spettroscopia molecolare. Herzberg, che già nel 1927 aveva interpretato lo spettro elettronico della molecola d'idrogeno, nel 1930 in col391
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
laborazione con Edward Teller (n. 1908) pubblicò un lavoro fondamentale sugli spettri elettronici delle molecole poliatomiche, formulando la teoria dell'effetto Herzberg-Teller che permette d'interpretare gli spettri di molecole in cui il momento di transizione elettronico è nullo o molto debole. Dopo il 1930 Herzberg si dedicò alla spettroscopia nell'infrarosso ad alta risoluzione di molecole come acetilene, C02 e HCN, che si sono poi rivelate di notevole interesse astrofisico perché abbondanti nelle nubi interstellari e nell'atmosfera di pianeti. Trasferitosi a Ottawa, nell'istituto che porta oggi il suo nome, diede contributi di base alla spettroscopia atomica e alla comprensione degli spettri di radicali liberi, identificando molti di essi tra cui i radicali CH2 , CH3 , C3, e NH2 • Herzberg ha scritto tre libri di spettroscopia molecolare, che costituiscano ancor' oggi la Bibbia degli spettroscopisti. Contributi altrettanto fondamentali alla spettroscopia rotazionale e vibrazionale sono dovuti a Bright Wilson Jr. di Harward. Wilson sviluppò dopo la seconda guerra mondiale il metodo detto delle matrici FG, per il calcolo delle vibrazioni molecolari in termini di costanti di forza associate a variazioni di distanze e di angoli di legame nelle molecole poliatomiche. Questo metodo ha permesso di assegnare le bande di assorbimento nell'infrarosso a specifiche vibrazioni dei gruppi chimici o dello scheletro molecolare. Con l'avvento dei grandi calcolatori elettronici, sono stati sviluppati dopo il 1960 programmi di calcolo che permettono di eseguire questi complessi calcoli in pochi secondi. L'assegnazione delle bande infrarosse a vibrazioni caratteristiche di gruppi chimici ha fornito alla chimica uno strumento pr<::zioso per il riconoscimento della struttura e della composizione chimica delle molecole. La cinetica chimica. L'evoluzione della mentalità chimica in termini di processi fisici ha decisamente orientato la ricerca, soprattutto dopo lo sviluppo della teoria elettronica della valenza, verso lo studio dei meccanismi delle reazioni e del complesso problema dei fattori che ne influenzano la velocità con particolare riferimento alla catalisi. Lo studio delle reazioni chimiche in termini di meccanismi generali è infatti strettamente collegato alla definitiva comprensione del ruolo fondamentale degli elettroni nei processi di trasformazione chimica della materia e alla funzione essenziale di sostanze, dette catalizzatori, nel rendere possibile o nell'accelerare le reazioni. Il concetto di base, già affermato alla fine del XIX secolo, stabilisce che le reazioni tra prodotti iniziali e finali procedono in genere attraverso vari stadi intermedi, con la formazione, spesso, di molecole a vita brevissima e quindi estremamente reattive. Ognuna delle reazioni parziali che portano ai prodotti finali ha una sua velocità che può essere accelerata o ritardata dalle condizioni in cui la reazione si svolge. Il problema della reattività venne così trasformato da statico in dinamico, nel senso che diventò il problema del tempo necessario perché la reazione avvenga e dei fattori che possono accelerare o ritardare questo tempo. Nacque così la cinetica chimica, intesa come settore della chimica-fisica che studia la velocità delle reazioni. Le leggi 392
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
fondamentali della cinetica chimica avevano trovato la prima formulazione quantitativa, nel 1850, grazie alle ricerche di Ferdinand Wilhelmy sull'inversione del saccarosio per catalisi acida. Nel trattamento di Wilhelmy la velocità con cui diminuisce la concentrazione di zucchero era proporzionale alla sua concentrazione istantanea ed era espressa in forma di equazione differenziale. Il lavoro di Wilhelmy stimolò Berthelot e Leon Péan de Saint-Gilles a studiare la velocità con cui procedeva la reazione di esterificazione dell'acido acetico. Essi trovarono che dopo un certo tempo nella reazione C2H 50H + CH3COOH ~ CH3COOC 2H 5 + H 20 si stabiliva una situazione di equilibrio tra reagenti e prodotti e che fino a quel punto la velocità di reazione era proporzionale al prodotto delle concentrazioni dei reagenti. Utilizzando largamente questi dati, il chimico Peter Waage e il matematico Cato Guldberg, norvegesi, riuscirono nel 1874 a riformulare in forma matematica la legge di azione di massa di Berthelot. Come spesso accadeva nel XIX secolo, quando il livello di diffusione dell'informazione scientifica era ben lontano da quello attuale, il lavoro di Guldberg e Waage restò ignorato fino al 1879 quando i due autori pubblicarono in forma definitiva i loro risultati in tedesco, nel «Journal fiir praktische Chemie ». Una collaborazione dello stesso tipo aveva portato nel 186o il chimico August Vernon Harcourt e il matematico William Esson a Oxford a risultati analoghi nello studio delle reazioni tra acqua ossigenata e acido iodidrico e tra acido ossalico e permanganato di potassio. La cinetica chimica classica trovò la sua definitiva sistemazione nel 1884 nel famoso lavoro di Van't Hoff, intitolato Études de dynamique chimique. Van't Hoff classificò le reazioni in monomolecolari, se la velocità era proporzionale alla prima potenza della concentrazione, in bimolecolari, se essa era proporzionale al prodotto delle concentrazioni dei reagenti e in trimolecolari, se dipendeva dal prodotto di tre concentrazioni, anche se era in realtà convinto che le reazioni trimolecolari procedessero attraverso stadi mono o bimolecolari. Nel classificare le reazioni in termini di « molecolarità » Van't Hoff si rese inoltre conto che il numero di molecole che prendono parte a una reazione (molalità) era differente dalla sua definizione di molecolarità che invece rappresentava l'esponente della concentrazione del composto nell'equazione cjnetica. Questo concetto fu definitivamente chiarito nel 1887 da Ostwald, il vero padre della moderna chimica fisica al quale fu assegnato il premio Nobel per la chimica nel 1909. Le ricerche di Ostwald contribuirono in maniera decisiva a ristabilire quel ponte tra chimica e fisica che si era interrotto nella prima metà del secolo, soprattutto per il grande sviluppo della chimica organica sintetica. All'inizio degli anni ottanta lo stesso Van't Hoff trovò la formula generale dell'equazione differenziale che collega la velocità di reazione alla temperatura e alla quantità di calore svolto o assorbito. Inoltre studiò l'effetto dei solventi sulla velocità di reazione e riuscì a stabilire che nel caso delle soluzioni diluite l'equazione 393
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
dei gas perfetti era facilmente applicabile se alla pressione del gas si sostituiva la pressione asmatica. Per le sue ricerche di cinetica Van't Hoff ricevette nel 1901 il premio Nobel della chimica, appena istituito. La svolta decisiva nell'interpretazione delle velocità di reazione è legata però al nome di Svante August Arrhenius che nel 1889 pubblicò un classico lavoro nel quale, studiando l'effetto della temperatura sulle velocità di inversione del saccarosio, fece l'ipotesi che al processo partecipassero solo alcune delle molecole presenti, rese attive in quanto dotate di un eccesso di energia (energia di attivazione). n numero delle molecole attive varia con la temperatura secondo la statistica di Maxwell-Boltzmann che esprime la distribuzione delle velocità molecolari in un gas e la costante di velocità k di una reazione è data dalla relazione
k=Ae-EIRT dove A è un fattore che dipende dalla frequenza degli urti e E l'energia di attivazione. Anche se questa relazione era stata in realtà sviluppata da Van't Hoff per le costanti di equilibrio, essa è universalmente nota come equazione di Arrhenius. Nel 1918, calcolando la velocità di reazione delle reazioni bimolecolari, W. C. McLewis riuscì a interpretare il significato del fattore A che compare nell'equazione di Arrhenius mostrando che esso è uguale al numero di collisioni efficaci per unità di tempo. Da quel momento tutti gli sviluppi teorici della teoria delle collisioni si concentrarono sul calcolo del fattore di frequenza A e dell'energia di attivazione E. L'amicizia di Van't Hoff con Ostwald e successivamente con Arrhenius, il pupillo di Ostwald, diede luogo a una fruttuosa collaborazione che portò Arrhenius a sviluppare nel 1887 la teoria della dissociazione elettrolitica, per la quale ottenne il premio Nobel nel 1903. Arrhenius introdusse il concetto di grado di dissociazione degli elettroliti e riuscì a collegare la teoria della conduzione elettrica nelle soluzioni all'esistenza degli ioni, spiegando così il funzionamento degli acidi e delle basi e fondando la moderna elettrochimica. Successivamente nel 1887-1888 Ostwald sviluppò la relazione tra concentrazione e conduttività degli elettroliti e mostrò che la costante di dissociazione poteva essere utilizzata per misurare la forza degli acidi e delle basi. Particolarmente importante si rivelò il fatto che il prodotto ionico dell'acqua pura era costante a temperatura costante ed eguale a 10- 7 moF/F. Nel 1909 il biochimico danese Soren S0rensen propose di utilizzare il logaritmo negativo (pH) della concentrazione di ioni idrogeno per creare una scala di acidità e basicità nella quale il valore 7 corrispondeva alla neutralità e i valori 1 e 14 ai limiti estremi di acidità e alcalinità. Il concetto di pH entrò però a far parte ufficialmente del bagaglio teorico dei chimici solo dopo che nel 1914 Leonor Michaelis ne diffuse la conoscenza con un libro sulla concentrazione degli ioni idrogeno e dopo che la misura del pH divenne di uso comune nei laboratori con la produzione industriale del primo strumento a misura diretta, realizzato nel 1935 da Arnold Beckman. La teoria della dissociazione elettrolitica e soprattutto lo status accademico della chimica fisica come 394
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
base concettuale di tutta la chimica non ottennero subito il favore dei chimici. La distinzione tra elettroliti forti ed elettroliti deboli non era ancora chiarita e le differenze che si osservavano tra soluzioni di diversi elettroliti in solventi diversi diedero origine a più di vent'anni di discussioni accanite. Fu il danese Niels Bierrum (1879-1958) a chiarire nel 1909, in maniera definitiva, la differenza tra elettroliti forti, composti formati da ioni già allo stato cristallino e completamente ionizzati in soluzione, ed elettroliti deboli che invece si ionizzano solo in parte. A molti però, in particolare ai fisici, sembrava impossibile discutere la dinamica degli ioni in soluzione ammettendo che essi fossero completamente liberi di muoversi. Cominciava così a farsi strada l'idea di idratazione, cioè l'idea che ogni ione fosse «rivestito» di molecole di acqua e che sotto l'azione del campo elettrico nel processo di conduzione anche le molecole d'acqua si muovessero insieme agli ioni. Questo problema era strettamente collegato a quello della natura del solvente e all'importanza della costante dielettrica del solvente nell'interazione interionica. Nel 1893 Herman Walther Nernst (1864-1941) (che nel 1920 ricevette il premio Nobel per le sue ricerche di termochimica) aveva già messo in evidenza che solventi con alta costante dielettrica, schermando le forze d'interazione tra ioni, facilitavano la ionizzazione. Il problema della mobilità degli ioni in soluzione richiedeva però una sintesi di tutti questi concetti fatta su serie basi di meccanica statistica. Questa sintesi, che metteva insieme la struttura della cavità in cui si trova lo ione circondato da molecole di solvente con le interazioni interioniche e tra ione e solvente, e che utilizzava la statistica per tener conto delle orientazioni e della dinamica delle molecole del solvente, fu realizzata da Peter Debye e Walther Hiickel per le soluzioni acquose e generalizzata ed estesa ad altri solventi da Lars Onsager nel 1927. Le ricerche di elettrochimica non solo favorirono l'affermazione della teoria atomica ma crearono anche le basi per lo sviluppo dell'industria per la preparazione dei metalli mediante elettrolisi dei sali fusi e per la produzione ·di celle galvaniche. La fine del XIX secolo e l'inizio del xx videro un fiorire di ricerche in cinetica chimica che ben presto si collegarono, da un lato, allo studio delle quantità di calore messe in gioco nelle reazioni e, dall'altro, a quello della catalisi e dei meccanismi delle reazioni. Dopo l'avvento della meccanica quantistica, Henry Eyring (1901-82) e Michael Polanyi (1891-1976) svilupparono nel 1935 la teoria quantistica delle velocità assolute di reazione che da allora è universalmente accettata. In questa teoria, la transizione fra lo stato iniziale (quello dei reagenti) e lo stato finale (quello dei prodotti della reazione) avviene se il sistema riesce a superare una barriera di potenziale, il cui massimo di energia corrisponde alla formazione di un complesso attivato, che può o disattivarsi riformando i prodotti di partenza o invece dar luogo alla reazione. A partire dal 1958, il figlio di Michael, John Charles Polanyi, si dedicò allo studio dell'evoluzione temporale delle caratteristiche energetiche, rotazionali e vibrazionali del complesso attivato, utilizzando a tal fine la spettroscopia infrarossa. Egli studiò in particolare la reazione tra atomi d'idrogeno e molecole di cloro (che 395
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
portò nel 1969 alla scoperta, da parte di George Pimentel, del primo laser chimico), e, nel 1980, fu il primo a osservare sperimentalmente e a caratterizzare lo stato di transizione di una specie chimica. Polanyi riuscì a dedurre dalle sue ricerche una serie di regole in base alle quali la conoscenza dello stato di transizione (complesso attivato) permette di decidere la direzione in cui una reazione procede. Per queste ricerche ottenne nel 1986 il premio Nobel insieme a Dudley Robert Herschbach e a Yuan Tseh Lee. Herschbach nel 1966 e Lee nel 1968 ebbero il merito di studiare reazioni chimiche facendo collidere nel vuoto fasci supersonici di atomi o molecole in modo da poter evidenziare eventi reattivi elementari, isolati da interazioni con altre molecole. Il contributo di Lee riguarda essenzialmente le reazioni unimolecolari nelle quali una molecola si dissocia per effetto di una radiazione elettromagnetica in frammenti diversamente eccitati o ionizzati, che sono ottenuti con una fotochimica selettiva nella quale lo stato eccitato è preparato scegliendo opportunamente l'energia della radiazione incidente. Le ricerche di Herschbach erano invece indirizzate allo studio dei complessi di Van der Waals tra molecole debolmente legate da forze intermolecolari. I moderni sviluppi della cinetica chimica riguardano i processi di trasferimento di elettroni tra molecole durante la reazione. Risultati fondamentali in questo campo sono stati ottenuti da Rudolph A. Marcus (premio Nobel per la chimica 1992) che ha sviluppato la teoria del trasferimento di elettroni nei sistemi chimici in una serie di lavori apparsi tra il 1956 e il 1965. La teoria di Marcus spiega come anche piccole variazioni strutturali nella disposizione degli atomi nella molecola o nel mezzo circostante alterano la barriera di potenziale che l'elettrone deve superare per trasferirsi da una molecola all'altra o da un sito all'altro all'interno della stessa molecola. Questi processi di trasferimento di elettroni giocano un ruolo fondamentale nella fotosintesi, nei processi respiratori, nella produzione di corrente da batterie e nella catalisi. I catalizzatori possono essere considerati come dei veri e propri interruttori delle reazioni chimiche, capaci di innescare o di accelerare una reazione senza entrare nel bilancio ponderale della reazione stessa. Da catalizzatore può agire sia una molecola disciolta nella soluzione in cui avviene la reazione (catalisi omogenea) sia un solido cristallino o amorfo (catalisi eterogenea). Già nei lavori di Gotlieb Sigismund Kirchhoff, di Louis Jacques Tenhard e di Johann Wolfgang Dobereiner erano apparsi tra il 1812 e il 1825 numerosi casi di reazioni catalitiche e nel 1835 Berzelius aveva avanzato l'ipotesi che l'azione catalitica fosse legata all'interazione tra cariche elettriche. In particolare, Dobereiner si accorse nel 1823 che l'idrogeno bruciava molto rapidamente in presenza di platino e che addirittura si accendeva spontaneamente su platino spugnoso, e nel 1877, Charles Friedel e James Mason Craft scoprirono che il cloruro d'alluminio è un potente catalizzatore per trasformare composti organici clorurati in idrocarburi o chetoni, realizzando la cosiddetta reazione di Friedel e Craft. Una prima interpretazione dei meccanismi della catalisi è dovuta a Meyer che avanzò l'idea, ripresa in seguito da Ostwald, che il catalizzatore fosse capace di sviluppare grandi quantità
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
di energia « dormiente » che permetteva alla reazione di scatenarsi. A partire dal 1882 Ostwald iniziò una serie di ricerche sulla catalisi acida, dove la presenza di acidi facilita molte reazioni d'idrolisi (rottura di legami chimici da parte dell'acqua) e interpretò il p~ocesso come dovuto alla presenza degli ioni idrogeno. Quasi contemporaneamente, N. A. Mensutkin scoprì l'esistenza di reazioni autocatalitiche in cui i prodotti della reazione funzionano da catalizzatori della reazione stessa e, nel 1887, Ostwald riuscì a formulare una teoria cinetica di queste reazioni. Ostwald però pensava che i catalizzatori potessero solo accelerare le reazioni, che spontaneamente awengono con maggiore lentezza, non innescarle. La teoria della catalisi acida, in seguito divenuta acido-basica in quanto l'azione catalitica può essere esercitata anche dalle basi, fu interpretata negli anni venti da J. N. Bmnsted e T. M. Lowry come dovuta a una azione protolitica degli acidi e basi forti su acidi e basi deboli. Lo stesso Bmnsted, assieme a K. O. Pedersen, propose nel 1924 l'equazione cinetica che lega la costante di dissociazione del catalizzatore alla costante di velocità della reazione. Ulteriori sviluppi della catalisi acido-base furono realizzati dal chimico americano Louis P. Hammett che nel 1933 estese il trattamento agli acidi carbossilici e nel 1934 definì una funzione di acidità rivelatasi molto utile nelle reazioni di formazione degli esteri. Dalla fine del xrx secolo fino al 1930, in seguito allo sviluppo della teoria delle collisioni in cinetica chimica, il concetto di energia di attivazione acquistò importanza centrale nelle teorie della catalisi, poiché era idea diffusa che il catalizzatore abbassasse l'energia di attivazione della reazione. Con lo sviluppo della meccanica quantistica e della teoria delle forze intermolecolari si appurò che la catalisi eterogenea era legata a fenomeni di chemi- o di fisiadsorbimento delle molecole sulla superficie del catalizzatore solido. Nel caso del chemiadsorbimento gli elettroni liberi alla superficie del catalizzatore interagiscono con quelli di valenza dei reagenti e la distribuzione dei legami chimici all'interno della molecola viene temporaneamente alterata per formazione di legami chimici con gli atomi del catalizzatore, dando luogo a composti instabili (teoria del prodotto intermedio) estremamente reattivi. Particolarmente importante in questo caso è la presenza di impurezze nel solido (centri attivi) che possono funzionare da accettori o da donatori di elettroni. Possono funzionare da catalizzare anche le pareti del recipiente in cui awiene la reazione attraverso meccanismi di chemiadsorbimento o per formazione di radicali liberi. 4) I meccanismi delle reazioni chimiche
La chimica preparativa del xx secolo ha visto un enorme sviluppo dei classici processi di sintesi di molecole complesse, soprattutto di interesse biologico e farmaceutico, utilizzando in maniera massiva metodi chimico-fisici per la purificazione e per la determinazione della struttura delle molecole che hanno permesso di trasformare il pesante e noioso lavoro di laboratorio in un'organizzata pianificazione della ricerca. All'inizio del xx secolo non era chiaro perché i doppi e tripli legami si rompessero più facilmente di quelli singoli, mentre sembrava logico l'opposto, cioè che 397
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
essi fossero più resistenti. Già nel 1869 il russo Vladimir Markovnikov aveva formulato la regola, che porta il suo nome, secondo la quale nell'attacco con acidi alogenidrici (HCI, HBr, Hl) al doppio legame di composti insaturi, l'idrogeno si sostituisce sull'atomo di carbonio legato al maggior numero di idrogeni, mentre l'alogeno si lega a quello più povero in atomi d'idrogeno, come avviene per esempio nella reazione H+Cl- + CH3 - CH = CH2 = CH3 - CHCl- CH3 • Un altro tentativo di· interpretare i meccanismi delle reazioni chimiche fu fatto nel 1898 da Arthur Lapworth (1872-1941). Studiando le reazioni di equilibrio tra isomeri (tautomeria), egli avanzò l'ipotesi che il passaggio tra le due forme fosse dovuto alla mobilità di un atomo o di un radicale monoatomico, chiamato « gruppo chiave». La teoria di Lapworth spiegava perché nella tautomeria cheto-enolica l'atomo d'idrogeno legato al carbonio centrale migra sull'atomo di ossigeno e il doppio legame si sposta tra due atomi di carbonio secondo lo schema
Rt
Rt
R3
l l
l l
l
-c-c-c-
li
o
H
R3
l
-C==C-C1
0-H
l
R2
Lapworth supponeva che nello spostamento del gruppo chiave fossero coinvolti, in qualche modo, processi di dissociazione e sviluppò, tra il 1909 e il 1912, una teoria dell' addizione in termini di polarità alternata e latente, attivate dalla presenza del gruppo chiave che esercitava quindi un'azione a distanza e polarizzava gli atomi. Su questa base interpretò la formazione delle cianidrine per addizione di un gruppo - CN a quello carbossilico di un chetone come la sequenza di due stadi, quello (I) in cui per attacco del gruppo CN si apre il doppio legame e quello (rr) in cui uno ione idrogeno si addiziona alla molecola.
CN +
-/
CN + O= C
"
" o
c/ -/"
CN
"-../ c OH/"-.. Il
Un diverso approccio ai meccanismi di addizione fu proposto nel 1899 da Johannes Thiele (1865-1927), professore a Strasburgo, che propose la presenza di valenze residue sugli atomi coinvolti in doppi legami. Queste valenze residue, che Thiele rappresentava con linee punteggiate, potevano autosaturarsi nel composto, ma erano facilmente apribili per attacco con un reagente, come mostrato nella reazione
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
-CH=CH-CH=CH-+H
...:
.. . ...•
•
..:
~-CH-CH=CH-CH-
2 ---,
l
l
H
H
Thiele estese l'idea delle valenze residue anche ai composti aromatici per spiegare i meccanismi delle addizioni al nucleo benzenico. Robert Robinson (1886-1975; premio Nobel nel 1947 per le sue ricerche sugli alcaloidi) propose un meccanismo in cui i legami erano suddivisi in valenze frazionarie come proposto da Thiele, mentre gli atomi erano polarizzati secondo un modello simile a quello di Lapworth. Attorno al 1920 Bernard Fliirscheim (1874-1955), Daniel Vorliinder (1867-1941) e Arthur Michael (1853-1942) proposero altre teorie dei meccanismi di reazione, tutte più o meno basate sul concetto di polarità dei legami o delle molecole. Per esempio Vorliinder ipotizzò che nel clorobenzene l'atomo di cloro, essendo fortemente elettronegativo, tendesse ad attrarre elettroni creando una distribuzione alternata di cariche
nell'anello. Un effetto simile è prodotto da un gruppo N0 2 , ma in questo caso l'alternanza delle cariche positive e negative è invertita. Come conseguenza, un gruppo positivo come H+ attacca il clorobenzene nelle posizioni orto e para e il nitrobenzene in quelle meta mentre un gruppo negativo come Cl- fa esattamente l'inverso. Queste teorie erano estremamente utili ai chimici sintetici perché suggerivano come procedere nel programmare la sintesi di un nuovo composto. Esse erano però basate su ipotesi ad hoc, senza alcuna relazione con la distribuzione degli elettroni nella molecola, e servivano più a fornire possibili schemi di reattività che a interpretare come veramente procedessero le reazioni. Con la teoria elettronica della valenza di Lewis e Langmuir, i meccanismi di reazione diventarono finalmente interpretabili in termini di coppie di elettroni. Sia Lapworth che Robinson capirono subito, sotto l'influenza di Langmuir, che le valenze parziali utilizzate sino ad allora erano facilmente traducibili in termini di doppietti elettronici. Le valenze saturate divennero così una coppia di elettroni in comune tra due atomi, quelle latenti di Thiele un doppietto libero di elettroni e quelle virtuali un ottetto incom399
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
pleto. La sistematica moderna dei meccanismi di reazione fu realizzata dal chimico inglese Christopher Kelk Ingold (1893-1970) e dalla sua scuola a partire dal 1924. Gli inizi dell'attività di Ingold nel campo dei meccanismi di reazione furono in realtà caratterizzati da una serie di previsioni errate nel periodo 1924-1925 sul confronto tra i meccanismi proposti da Robinson e Lapworth da un lato e da Fliirscheim dall'altro. Queste diedero luogo a violenti scontri tra Ingold e Robinson, aprendo un dibattito tra le due scuole di pensiero che servì a chiarire le due posizioni. Robinson rielaborò la propria teoria in termini di struttura elettronica e propose due diversi meccanismi per l'attacco dei reagenti ai sistemi aromatici e coniugati: il primo coinvolgeva il trasferimento di un doppietto libero e una conseguente variazione della funzione covalente degli elettroni; il secondo era dovuto a puri effetti di induzione elettrostatica. Ingold, accettando in parte le idee di Robinson, introdusse il concetto di cariche frazionarie sugli atomi, cariche che simboleggiava con o- e o+ per indicare rispettivamente un eccesso di carica negativa e positiva sugli atomi in conseguenza della presenza di un gruppo capace di polarizzare la molecola. Il lavoro di Ingold e della sua scuola si tradusse in una teoria generale dei meccanismi di reazione elaborata con la moglie nel periodo compreso tra il1926 e il1933. Ingold mise a punto anche una nomenclatura, divenuta poi quella ufficiale in chimica organica, nella quale l'effetto che Robinson aveva chiamato di coniugazione per indicare il trasferimento di elettroni diventava effetto tautomerico, quello di polarizzazione diventava effetto induttivo e la polarizzabilità transiente diventava effetto elettrometrico. Questi effetti si sommavano o si sottraevano in sistemi diversi, favorendo o no sostituzioni in molecole coniugate. Inoltre nella nomenclatura di Ingold i gruppi chiave di Lapworth presero il nome di nucleo/ili se cedevano una coppia di elettroni ed elettro/ili se la accettavano. Nel 1933 Ingold e Ted Hughes (1906-63) distinsero tre possibili meccanismi di reazione, il meccanismo E2 e i meccanismi SNl e SN2, dove E sta per eliminazione, S per sostituzione ·e i numeri l e 2 indicano il numero di molecole coinvolte nello stadio più lento della reazione mentre N sta per nucleofilo. Studiando l'effetto della polarità dei solventi Ingold e Hughes trovarono le condizioni generali per cui i meccanismi di tipo SN2 generano sempre un'inversione nell'isomeria ottica come per esempio l'inversione di Walden, mentre i meccanismi di tipo SNl portano alla racemizzazione. Lo sviluppo dei meccanismi di reazione ebbe un'importante evoluzione quando fu possibile, con metodi quantistici, trasformare il trattamento classico, essenzialmente fenomenologico e basato su argomenti induttivi che collegano un'enorme massa di dati empirici, in un calcolo quantitativo a partire dalla distribuzione degli elettroni negli orbitali molecolari. Il giapponese Kenichi Fukui (n. 1918) introdusse nel 1952 l'approssimazione degli orbita/i di frontiera che consiste nel trascurare, nel calcolo della reattività chimica, tutti gli orbitali molecolari tranne due, quello di energia più alta occupato (HOMO) e quello di energia più bassa vacante (LUMO). 400
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
Secondo le idee di Fukui questi due orbitali si comportano in una molecola come gli orbitali di valenza in un atomo. In particolare l'orbitale HOMO che contiene elettroni con la più alta energia dà informazioni sul carattere di donatore di elettroni e quello LUMO sul carattere di accettore di elettroni della molecola. Poiché una reazione chimica non è altro che un processo di scambio di elettroni tra i reagenti, la conoscenza degli orbitali di frontiera equivale a conoscere la reattività di una molecola. La teoria degli orbitali di frontiera fu utilizzata da Robert B. Woodward e da Roald Hoffmann (n. 1937) nel caso di reazioni dette senza meccanismo, in quanto sfuggono a qualsiasi interpretazione in termini di considerazioni elettrostatiche o di polarizzabilità. Woodward (premio Nobel nel 1965 per i suoi contributi alla sintesi organica) e Hoffmann utilizzarono metodi approssimati, come quello di Fukui o come quello dei diagrammi di correlazione secondo cui, se nessuno degli orbitali occupati subisce una variazione importante di energia, la reazione può avvenire facil mente. Questi diagrammi sono facilmente costruibili dalla conoscenza degli orbitali di partenza e di quelli di arrivo, usando semplici considerazioni di simmetria. In questo modo essi riuscirono a introdurre il concetto di conservazione della simmetria degli orbitali che, associato all'uso dei metodi approssimati, permise di ottenere regole di selezione che prendono il nome di regole di Woodward-Hoffmann. Fukui e Hoffmann ottennero per queste ricerche il premio Nobel nel 1981. I:analisi con/ormazionale. Un altro sviluppo teorico importante del xx secolo riguarda la possibilità di molte molecole di trasformarsi, in funzione della temperatura, dello stato di aggregazione e dell'interazione con il solvente, in isomeri con diversa conformazione spaziale per rotazioni intorno ai legami semplici C- C. Lo studio teorico di questa isomeria dinamica prende il nome di analisi conformazionale. Già alla fine del XIX secolo H. Sachse aveva previsto che la molecola del cicloesano C6H 12 potesse esistere in due forme, una a «vasca» e una a «sedia», (vedi fig. 12). Dopo che E. Mohr ebbe dimostrato negli anni venti che le due forme del cicloesano erano prive di tensione angolare, Odd Hassel (1897-1981) determinò nel 1947 la struttura conformazionale del cicloesano con la diffrazione degli elettroni e dimostrò che a temperatura ambiente la conformazione preferenziale era quella a sedia.
o Conformazione a sedia
Conformazione a vasca
Fig. 12. Le due strutture conformazionali del cicloesano.
401
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
Un grande impulso all'analisi conformazionale venne nel 1950 da Derek Barton (n. 1918), il quale studiò la stabilità dei sostituenti nelle posizioni assiali ed equatoriali e la loro interazione quando sono vicini, estendendo il trattamento alle molecole del tipo dei politerpeni e degli steroidi. Le ricerche di Hassel e di Barton furono premiate con il Nobel nel 1969. 5) Il mondo naturale e quello artificiale della sintesi chimica
Nel xx secolo lo sviluppo della sintesi chimica ha fornito all'umanità uno degli strumenti più efficaci per trasformare la natura e adattarla ai crescenti bisogni delle società in continua espansione demografica, economica e culturale. La disponibilità di potentissime tecniche chimico-fisiche di purificazione e identificazione dei prodotti, che riducono drasticamente i tempi di lavoro in laboratorio, e la conoscenza dei meccanismi di grandi classi di reazioni, hanno consentito una crescita praticamente illimitata delle possibilità della chimica di progettare e realizzare sintesi talmente complesse da non essere nemmeno immaginabili nel xrx secolo. Il numero di nuovi composti sintetizzati o identificati come prodotti naturali ogni anno è dell'ordine delle centinaia di migliaia e tende a crescere continuamente. Non c'e di fatto alcun limite alla possibilità di nuove sintesi, se non l'interesse pratico o scientifico del prodotto. La chimica permette oggi di produrre materiali speciali per tutte le applicazioni tecnologiche, dai metalli speciali ai polimeri; prodotti farmaceutici mirati alla cura di specifiche malattie; fertilizzanti e anticrittogamici estremamente efficaci; combustibili ad alto rendimento energetico e purtroppo terribili strumenti di morte e di distruzione come le armi chimiche e gli esplosivi. Quanto questo sviluppo, che sembra ormai inarrestabile, sia veramente un bene per l'umanità e non sia in buona parte la conseguenza della sfrenata crescita di un capitalismo sempre più aggressivo, è problema di attuale dibattito da parte di sociologi, economisti e politici; in questa sede è comunque doveroso ricordare i gravi problemi di inquinamento chimico che le società moderne devono affrontare e che, nonostante la stessa industria chimica che produce le materie inquinanti abbia messo a punto anche le tecniche per eliminarle, restano tra le più pesanti limitazioni del progresso delle società moderne. I due grandi filoni di ricerca della chimica di sintesi del xx secolo, la riproduzione in laboratorio delle sostanze naturali e la creazione di nuove molecole non esistenti in natura, si sono sviluppati grazie alle possibilità offerte dalla scoperta di tecniche di sintesi di carattere generale: queste infatti permettono di programmare il tipo di molecola necessario a una data applicazione industriale ò farmaceutica, i gruppi chimici da aggiungere a una molecola di partenza per ottenere le prestazioni desiderate e le posizioni in cui essi devono essere sostituiti per un rendimento ottimale. Elencare tutte le reazioni di carattere generale che il chimico utilizza oggi nella preparazione di un nuovo composto sarebbe impossibile in questa sede sia per l'enorme numero di tali reazioni sia perché risulterebbe estremamente 402
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
noioso e arido per i non addetti ai lavori. Ci limiteremo pertanto a ricordare quelle più significative nella preparazione di intere serie di prodotti e ad accennare brevemente alle più importanti sintesi di interesse industriale e biologico. Abbiamo già visto precedentemente che nel 1877 fu scoperta la reazione di Friedel e Craft che permette di trasformare composti organici clorurati in idrocarburi o chetoni usando come catalizzatore il cloruro d'alluminio. Nel 1926 fu sviluppata da F. Fischer e H. Tropsch la sintesi di idrocarburi superiori saturi a partire da CO e H 2 utilizzando un catalizzatore al cobalto. Nel 1928 Otto Diels (1876-1954) e Kurt Alder (1902-58), che ottennero il premio Nobel nel 1950, svilupparono la sintesi dienica che trasforma molecole con doppi legami (dieni) in composti ciclici. La reazione di Diels-Alder si è rivelata di enorme versatilità e ha trovato applicazioni importanti nelle ricerche sui composti naturali complessi come gli steroidi o la vitamina D. Nel periodo 1950-55, George Wittig, professore a Heidelberg, scoprì gli ilidi di fosforo, composti molto reattivi che reagiscono facilmente con aldeidi e chetoni contenenti il gruppo carbonile C= O. Nella reazione il doppio legame C= O si rompe e si forma un doppio legame C =C, permettendo di saldare insieme lunghi pezzi di molecole. La sintesi a priori delle grandi molecole di interesse biologico rappresenta un altro affascinante capitolo della chimica sintetica del xx secolo. Nel 1913 Richard Willstiitter (1873-1942; premio Nobel nel 1915) chiarì la funzione della clorofilla nella fotosintesi e nel periodo 1930-1940 Hans Fischer, premio Nobel nel 1930, determinò la struttura della clorofilla-a, che venne definitivamente confermata per sintesi totale nel 1960 da Robert Burns Woodward (1917-79). Il contributo di Woodward alla chimica sintetica è enorme: già nel 1944 aveva realizzato in collaborazione con William Doering, la sintesi del chinino (la cui struttura era stata deteminata nel 1908 da Paul Rabe) e, sempre in collaborazione con Doering, la sintesi della chinotossina; nel 1951 sintetizzò il colesterolo e il cortisone, nel 1954 la stricnina e nel 1956 il primo tranquillante, la reserpina. Seguì un'impressionante serie di sintesi importanti tra le quali quella della cefalosporina (che gli valse il premio Nobel nel 1965), e nel 1974 quella della vitamina B12 • Woodward si interessò anche alla teoria degli orbitali molecolari, proponendo, come discusso precedentemente, le regole di Woodward-Hoffmann, e diede importanti contributi anche all'analisi conformazionale. Nel 1925 Heinrich Otto Wieland (1877-1957) suggerì la struttura generale degli steroidi e diede inizio allo studio intensivo degli enzimi, degli alcaloidi e degli acidi biliari. Nel 1938 Richard Kuhn sintetizzò la vitamina A e un anno dopo la vitamina B6 • Nel 1953 Vincent du Vignaud riuscì a sintetizzare l'ormone peptidico ossitocina, creando le basi della grande sintesi classica in soluzione delle molecole peptidiche, operazione che gli valse il premio Nobel nel 1955. Questo processo di sintesi in soluzione è estremamente lungo e laborioso perché la costruzione di un peptide avviene attraverso molte tappe successive nelle quali bisogna legare insieme i vari aminoacidi nella posizione desiderata. È quindi facilmente immaginabile il lungo lavoro di purificazione e iso-
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
lamento dei differenti intermedi ottenuti a ogni stadio del processo. Nel 1963 Bruce Merrifield mise a punto una tecnica completamente nuova, che si è rivelata di portata generale nella sintesi di grandi molecole. L'idea di Merrifield (premio Nobel nel 1969) fu di ancorare il nucleo iniziale su una resina insolubile attaccando a esso pezzo a pezzo gli aminoacidi successivi nella giusta posizione. Il metodo di Merrifield ha trovato applicazioni spettacolari nella sintesi di frammenti di proteine di -interesse per la decodificazione della struttura dei geni. Un'altra branca della chimica sintetica il cui sviluppo ha avuto un impatto enorme sulla società moderna, divenendo parte integrante della vita di ogni giorno, è quella delle macromolecole e dei polimeri. Già all'inizio del secolo erano note molte materie plastiche come la celluloide ottenuta nel 1869 da John Wesley Hyatt, il rayon prodotto nel 1884 da Louis Marie Hilaire Bernigaud conte di Chardonnet e la bachelite prodotta nel 1909 da Leo Hendrik Baekeland. Sebbene ai chimici che all'inizio del secolo lavoravano, come Emil Fischer, allo studio tridimensionale di molecole come le proteine e gli zuccheri, apparisse evidente che queste molecole giganti erano costituite da catene di unità di glucosio o di peptidi che si ripetevano continuamente, il concetto di macromolecola fu introdotto solo negli anni venti da Hermann Staudinger (1881-1965), premio Nobel nel 1953 proprio per le sue ricerche sui colloidi e sui polimeri. Nel 1926 egli mostrò che le sostanze plastiche sono formate da lunghe catene lineari che possono estendersi per centinaia di nanometri. La scoperta della struttura lineare delle macromolecole permise di chiarire molte proprietà chimico-fisiche (come l'elasticità e la flessibilità) non solo delle sostanze polimeriche di sintesi, ma anche di quelle naturali come caucciù, amido, cellulosa, ecc. Nel 1934 apparvero i primi brevetti soprattutto negli Stati Uniti dove gli industriali si resero subito conto, molto prima dei loro concorrenti europei, delle enormi possibilità applicative dei polimeri sintetici. Wallace H. Carothers (1896-1937), con l'aiuto teorico di Paul Flory (1910-85), mise a punto il processo industriale di reazioni di addizione e condensazione che lo portò a sviluppare una nuova fibra poliammidica brevettata dalla Du Pont nel 1938, con il nome di nylon. Quasi contemporaneamante E. W. Fawcett scopriva il politene, l'attuale polietilene. Nel 1953 Karl Ziegler (1898-1973) scoprì una serie di importanti catalizzatori di polimerizzazione, che si ottenevano dalla combinazione di un allumino alchile ~ e di composti di un metallo di transizione, principalmente titanio, vanadio, cromo, cobalto e nichel. Prima della loro scoperta si ottenevano polimeri in cui le unità monomeriche si susseguivano con configurazioni del tutto casuali, detti polimeri atattici (senza ordine: tdksis in greco significa ordinamento). Nel 1954 Giulio Natta (1903-79), professore al Politecnico di Milano e premio Nobel nel 1963 insieme a Ziegler, scoprì che con i catalizzatori di Ziegler si potevano ottenere, a seconda delle condizioni, polimeri in cui ogni unità monomerica aveva la stessa configurazione, i polimeri isotattici, o, configurazione alternativamente opposta, i polimeri sindiotattici. Natta e collaboratori studiarono la struttura ai raggi X dei polimeri stereoregolari e i meccanismi
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
della catalisi eterogenea che permettono di collegare i monomeri nel modo desiderato. La crescita ordinata della catena polimerica avviene in due stadi: 1) coordinazione del monomero al metallo del centro catalitico; 2) inserimento della molecola coordinata sul legame tra il metallo di transizione e l'atomo di carbonio terminale dell'ultima unità polimerizzata. La polimerizzazione stereospecifica di Natta ha aperto enormi possibilità all'industria per la produzione di materiali polimerici con particolari proprietà di elasticità e resistenza. Alcuni di questi polimeri, come il polibutadiene e il poliisoprene 1,4-cis, sono largamente utilizzati per la produzione dei più svariati oggetti che fanno ormai parte della vita di ogni giorno. 6) La rinascita della chimica inorganica nel xx secolo
Alla fine del XIX secolo l'inorganica si presentava come il parente povero delle due altre grandi branche della chimica, l'organica e la chimica fisica, che attraversavano invece un periodo di grande splendore e di intensa attività di ricerca: la prima grazie ai formidabili successi ottenuti nell'analisi dei composti naturali e nella sintesi di nuove molecole, la seconda per il rigoroso sistema teorico nel quale era riuscita a inquadrare la struttura delle molecole e le loro proprietà fisiche e chimiche. In effetti, una volta che la sistemazione degli elementi noti nel sistema aveva consentito di individuare gli elementi mancanti e le terre rare, e dopo la scoperta dei materiali radioattivi e la determinazione accurata dei pesi atomici, sembrava che ci fosse ben poco da fare nel campo dell'inorganica che si avviava a diventare una materia propedeutica per l'insegnamento della chimica, piuttosto che un'effervescente linea di nuova ricerca. Facevano eccezione alcuni composti strani come i sali misti e i composti organo-metallici, in cui un metallo si combinava con tipici gruppi organici o addirittura con molecole neutre come l'acqua, formando idrati, o come l'ammoniaca, formando ammoniacati, la cui natura restava ancora oscura. Per questi strani composti Ostwald nel 1889 aveva coniato il termine di complessi ma nessuno dei classici principi della chimica organica sembrava potesse funzionare per spiegare la loro struttura e composizione. Allo studio dei complessi si erano dedicati relativamente pochi chimici, tra cui Edmund Fremy (1814-94) in Francia, Otto Erdmann (1804-69) in Germania, William Jackson Pope in Inghilterra e soprattutto ricercatori scandinavi come gli svedesi Per Cleve e Christian W. Blomstrand (1826-97) e il danese Sophus }0rgensen (1837-1914). Fremy, che era stato particolarmente colpito dai vivaci colori degli idrati e degli ammoniacati di cobalto, che vanno dal rosa tenuo al violetto intenso, aveva proposto nel 1852 una loro classificazione, molto complessa e assai poco soddisfacente, proprio sulla base dei colori. Poiché alla fine del XIX secolo il confine tra chimica organica e inorganica non era ben definito, sembrava naturale estendere ai composti complessi i concetti di valenza e di architettura molecolare che funzionavano così bene nell'interpretazione
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
dei composti orgamc1. Secondo questa linea di pensiero Blomstrand aveva proposto nel r869 che, come gli idrocarburi formano catene (- CH2 - CH2 - ) , così anche gli ammoniacati potessero formare catene del tipo (- NH3 - NH3 - ) . li concetto di catene fu ripreso e ulteriormente sviluppato da J0rgensen che indicò per i complessi tutta una serie di formule del tipo di quelle di Blomstrand. Per esempio per il complesso [Co(NH3 ) 4Cl2]Cl, che nella nomenclatura di Fremy si chiamava praseosale, }0rgensen suggerì la formula
/Cl Co- NH -NH -NH -NH -Cl "
3
Cl
3
3
3
e, per il sale doppio PtC12 • 2KC1, la formula
Pt
/
"
Cl-Cl-K Cl-Cl-K
Le formule a catena di Blomstrand e J0rgensen assumevano, in contrasto con le idee di Kekulé e di tutti gli organici del tempo, che l'azoto fosse pentavalente e non trivalente nei composti idrogenati e che il cloro fosse bivalente. Blomstrand, seguace delle teorie elettriche di Berzelius, non credeva infatti che la valenza degli atomi fosse fissa ma che dipendesse dalle cariche accumulate sull'atomo, varianti a seconda dei gruppi cui l'atomo stesso era collegato. Le formule dei due chimici scandinavi erano per di più in contrasto con molti fatti sperimentali, che essi cercavano di spiegare caso per caso con ipotesi ad hoc. Ebbe così origine una serie di polemiche che si protrasse fino ai primi anni del xx secolo. Le obiezioni più serie alle loro idee vennero da Mendeléev, il quale osservò che in una catena il numero di gruppi NH3 avrebbe dovuto essere aumentabile a piacere, mentre al massimo arrivava a sei e che, inoltre, non era pensabile che molecole stabili come l' ammoniaca potessero formare ulteriori legami azoto-azoto. Fu in questa situazione confusa che apparve nel 1893, sul giornale « Zeitschrift fiir anorganische Chemie », un lavoro rivoluzionario di Alfred Werner (r866I9I9), un alsaziano operante a Zurigo, che di colpo risolse il problema dei complessi, rigettando in maniera radicale tutte le teorie precedenti e formulando un edificio teorico completamente nuovo e originale. Werner partì dalla constatazione che i sali idrati o ammoniacati di cobalto e di rame, abbastanza noti, erano classificabili in due gruppi distinti, uno con un rapporto massimo 1:4 e l'altro con un rapporto massimo r:6 tra metallo e acqua o metallo e ammoniaca. Ognuno di questi gruppi formava una serie di complessi in cui il numero di molecole di acqua o di ammoniaca poteva gradualmente diminuire fino a zero come nella serie
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
Co(NH3 ) 6Cl3 , Co(NH3 ) 5Cl3 , Co(NH3 ) 4Cl3 , CoC13 • Il secondo argomento utilizzato da Werner fu che metalli come cobalto, nichel, platino, renio, ecc. formavano tre serie di complessi con sei molecole d'acqua o di ammoniaca, a seconda che il metallo si comportasse da tetra- tri- o bivalente MIII(NH) x 3 6 3 Ognuno di questi complessi poteva perdere una molecola d'ammoniaca ma in questo caso uno dei residui acidi X cessava di essere di tipo ionico, dando luogo, nel caso per esempio del cobalto, alla serie di ioni [Co(NH3) 6]+++
[Co(NH3 ) 5X]++
[Co(NH3 ) 4X2]+
[Co(NH3 ) 3X 3]
Co(NH3 ) 2X4 ]-
L' esistenza di tali ioni non era conciliabile con le formule a catena ma si spiegava facilmente ammettendo che essi fossero formati da un atomo di metallo centrale intorno al quale si « coordinavano» sei gruppi NH3 , oppure cinque gruppi NH3 e un residuo acido X (X= Cl, N02 , ecc.), e così via. In collaborazione con l'italiano Arturo Miolati (!869-1950), Werner mostrò come la conducibilità di questi complessi del cobalto diminuisse progressivamente fino a zero, a mano a mano che molecole di ammoniaca del catione complesso [Co(NH3 )J+++ venivano sostituite da gruppi -N02 , fmo a ottenere il complesso neutro [Co(NH3)/N0) 3]. La sostituzione di un ulteriore gruppo NH3 con uno N02 faceva di nuovo aumentare la conducibilità in quanto il catione originario diveniva l'unione [Co(NH3 )/NO)4 ] -. Werner introdusse nella nomenclatura dei complessi il concetto di numero di coordinazione per indicare il numero di molecole neutre o di gruppi chimici che si legano direttamente al metallo. In questo modo distinse tra legami diretti e indiretti, i primi a carattere covalente e i secondi a carattere ionico, come si chiarirà in seguito dopo lo sviluppo della teoria del legame chimico. La teoria di Werner non solo spiegava la costituzione dei complessi ma si collegava facilmente con il problema dell'acqua di cristallizzazione, presente in molti sali ma fino a quel momento non chiarito, nonché con la teoria della dissociazione elettrolitica di Arrhenius. Un sale, dissociandosi in acqua, formava secondo la teoria di Werner un catione idratato, per esempio il catione [Co(H20) 6]+++, e spiegava quindi come la natura del solvente fosse importante per la dissociazione elettrolitica nel senso che solo quei solventi che riuscivano a coordinarsi con i metalli potevano dar luogo alla conduzione di corrente. Stimolato dalla visione tridimensionale delle molecole che Van't Hoff aveva introdotto nella chimica dei composti del carbonio, Werner affrontò il problema della struttura spaziale dei complessi di coordinazione, proponendo una struttura ottaedrica per i complessi a numero di coordinazione sei e piano-quadrata per quelli a numero di coordinazione quattro. Da queste ipotesi discendevano conseguenze importantissime per lo studio dell'isomeria. Nel caso dei complessi a struttura pianoquadrata, come per esempio il complesso Pt (NH 3 ) 2 Cl2 , dovevano esistere i due iso-
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
cis
trans
e
Ammoniaca O Cloro
4lt Platino
meri e, analogamente, il complesso ottaedrico Co(NH) 4 Cl2 , doveva presentare i due iso meri
e
Ammoniaca
O Cloro
-
Cobalto
Questi complessi erano già stati preparati da Blomstrand (nel caso del platino) e da ]0rgensen (nel caso del cobalto): in entrambi i casi era stata dimostrata l'esistenza di due isomeri che difficilmente si riusciva a spiegare con le formule a catena. n trionfo di Werner fu completo nel 19II, quando riuscì a separare i tre isomeri del complesso esacoordinato del cobalto con due molecole di etilendiammina NH2 - CH2 - CH2 - NH2 (en), ognuna delle quali era capace di prendere il posto di due molecole d'ammoniaca (legante bidentato)
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
dove le due molecole di destra sono otticamente attive e dove per semplicità le molecole di etilendiammina sono rappresentate da un tratto di curva. n premio Nobel nel 1913 sancì il definitivo riconoscimento della teoria di Werner. Nel1927 Nevil Vincent Sidgwick (1873-1952) rielaborò la teoria di Werner sulla base della teoria di Bohr e di quella di Lewis del legame covalente mostrando che i legami di coordinazione erano più deboli dei legami covalenti e che la loro natura era essenzialmente elettrostatica. n libro di Sidgwick Electronic theory o/ the covalent bond divenne presto un classico della letteratura chimica e influenzò schiere di ricercatori. Nel1916 Alfred Stock coniò il termine «legante» per designare un gruppo chimico coordinato a un metallo e nel 1920 comparvero le prime strutture ai raggi X di complessi di coordinazione. Nello stesso periodo Walter Kossel e Kasimir Fajans (1887-1975) eseguirono i primi calcoli, puramente elettrostatici, della loro conformazione spaziale riuscendo a riprodurre la struttura ottaedrica ma non quella piano-quadrata. Negli anni trenta, con l'avvento della meccanica quantistica, Hans Bethe (n. 1906), R. Schlipp e W. C. Penney (n. 1909) affrontarono il problema in termini di orbitali e mostrarono che la degenerazione degli orbitali d veniva eliminata dalla presenza dei leganti e che la distribuzione di carica elettronica intorno al metallo non era sfericamente simmetrica. Il guadagno in energia di legame ottenuto riempiendo gli orbitali d prese il nome di stabilizzazione del campo cristallino. David Mellor (1903-80) e Frank Dweyer (1910-62) studiarono con i raggi X un gran numero di complessi del palladio e Mellor mostrò come le proprietà magnetiche dei complessi potessero essere utilizzate per studiare la loro stereochimica. Nel 1947, Dweyer preparò il primo complesso con un legante esadentato, cioè con un'unica grande molecola capace da sola di coordinare tutti i vertici di un ottaedro. Negli anni cinquanta infine Leslie Orgel sviluppò la teoria quantistica del campo dei leganti che iniziò la grande rinascita della chimica inorganica dopo la seconda guerra mondiale. Contributi fondamentali alla nuova chimica inorganica vennero poi dai lavori di Ronhald Nyholm (1917-71), un australiano che creò la più importante scuola di chimica inorganica in Inghilterra e preparò un gran numero di complessi con l'arsina AsH3 e con i suoi derivati e una serie di nuovi complessi del molibdeno a numero di coordinazione sette e del titanio a coordinazione otto. Nel 1957 Nyholm e il suo collaboratore Ronald Gillespie (n. 1924) raffinarono la teoria di Sidgwick: essi mostrarono che elettroni con lo stesso spin si respingono più di quelli con spin opposto e che esiste una maggiore repulsione tra coppie di elettroni di legame che tra una coppia di legame e un doppietto libero di elettroni, spiegando così moltissime delle irregolarità individuate nella stereochimica dei complessi. L'altro importante contributo di Nyholm fu l'estensione dei meccanismi di reazione alla chimica dei complessi, utilizzando la nomenclatura introdotta da Ingold e lo studio dei legami metallometallo. La cinetica delle reazioni inorganiche si rivelò molto più veloce di quella delle molecole organiche e studi quantitativi furono possibili solo grazie alla tecnica della fotolisi a impulsi (flash photolysis) che Ronald Norrish (1897-1978) aveva svi-
www.scribd.com/Baruhk
Gli sviluppi della chimica nel xx secolo
luppato a Cambridge usando lampade ad arco per misure fotochimiche. La fotolisi venne ulteriormente perfezionata da George Porter (n. 1927) che introdusse l'uso di impulsi a microonde nello studio della cinetica e da Manfred Eigen che sviluppò nel 1960 la spettroscopia di rilassamento. Con l'avvento dei laser a impulsi ultracorti, lo studio delle cinetiche rapide è divenuto oggi uno dei campi più importanti della chimica-fisica. Norrish, Porter e Eigen ricevettero tutti e tre il premio Nobel per le loro ricerche nel 1967. La chimica dei composti di coordinazione è di importanza fondamentale in molti problemi biologici. La clorofilla e l'emoglobina, infatti, sono composti di coordinazione rispettivamente del magnesio e del ferro e in tutti i fermenti respiratorii è sempre presente un atomo metallico che svolge funzioni ossido-riduttive essenziali per il loro funzionamento. Altri aspetti fondamentali della moderna chimica inorganica, sui quali per ragioni di spazio non è possibile soffermarsi, sono collegati allo sviluppo della chimica del boro e del silicio, alla formazione di composti tra gas rari e alogeni e all'enorme sviluppo dei semiconduttori come l'arseniuro di gallio e dei cristalli con proprietà ottiche non lineari.
410
www.scribd.com/Baruhk
CAPITOLO
UNDICESIMO
Scienze della vita: alle frontiere fra fisica e chimica DI ALESSANDRA GLIOZZI
I
·
LA
RIVOLUZIONE
DELLE
SCIENZE
DELLA
VITA
La biofisica e la biochimica sono discipline che occupano un settore di studio molto vasto; virtualmente esse si estendono a tutti i settori delle scienze della vita animale e vegetale in cui sia possibile approfondire l'aspetto fisico e chimico o, in altri termini, in cui sia possibile una descrizione quantitativa dei processi biologici. Nelle pagine che seguono dovremo necessariamente !imitarci a una selezione degli argomenti, focalizzando la nostra attenzione su alcuni settori in cui la comprensione del processo biologico in termini fisico-chimici è pressoché definitiva e offrendo al lettore spunti di riflessione su nuove e sofisticate tecniche di indagine biofisica e biochimica. La conoscenza della struttura dettagliata delle molecole essenziali per le cellule, quali proteine, enzimi e acidi nucleici, ha subito negli ultimi decenni uno sviluppo eccezionale. Parte essenziale in questo sviluppo ha avuto il fiorire di nuove tecniche di indagine biofisica e biochimica. La configurazione di molte proteine con complessi livelli di organizzazione strutturale è ora nota così dettagliatamente da permettere la localizzazione dei singoli atomi. Questo risultato, assolutamente insperato una trentina di anni fa, è stato raggiunto grazie allo sviluppo di sofisticate tecniche di diffrazione a raggi X e di simulazione al calcolatore dei moti interni degli atomi che costituiscono le proteine e gli acidi nucleici. Questi ultimi studi, detti di «dinamica molecolare », si basano sulla considerazione che le proteine, come d'altronde tutte le macromolecole, non hanno strutture fisse ben determinate nello spazio, ma assumono numerose configurazioni che si alternano temporalmente con estrema rapidità. Gli studi di dinamica molecolare ci forniscono la rappresentazione topologica di queste configurazioni, mentre la diffrazione a raggi X ci permette di ricostruire la configurazione media attorno a cui queste pulsano. La conoscenza della struttura di una proteina facilita l'individuazione delle sue funzioni e costituisce dunque un avanzamento rilevante per la soluzione di problemi centrali della biochimica e della biofisica. Vi sono tuttavia nuove tecniche, fornite dalla genetica, che non solo hanno concorso ad affinare queste conoscenze, ma hanno anche permesso di sfruttare la capacità delle cellule di sintetizzare proteine 411
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
esogene (ossia normalmente non sintetizzate da quel tipo di cellula). Mediante colture batteriche opportunamente modificate si è in grado di produrre in grandi quantità ormoni peptidici o altri composti. Questa metodologia ha aperto una via alternativa, semplice ed economicamente conveniente, alla sintesi chimica e riveste ormai un'importanza fondamentale nello studio e nella comprensione a livello molecolare di molti fenomeni biologici, usualmente affrontati dalla biochimica e dalla biofisica. Volendo esporre brevemente le basi concettuali su cui essa si fonda occorre premettere che applicare suddivisioni disciplinari alle scienze della vita non è possibile, dato che queste sono a tal punto compenetrate fra di loro, che innumerevoli sono le zone di frontiera e gli sviluppi di avanguardia sempre più spesso derivano da intersezioni fra i diversi settori disciplinari. Nel settore di confine fra biochimica e genetica, l'evento fondamentale è la clonazione dei geni, vale a dire l'introduzione in un microorganismo di un tratto estraneo di DNA, detto gene, che controlla una caratteristica ereditaria. Da questo evento hanno avuto inizio le tecniche dette del DNA ricombinante, che permettono di modificare e manipolare l'informazione genetica e la sua espressione (cioè la traduzione attraverso il processo di biosintesi in polipeptidi o proteine). Di particolare importanza per lo sviluppo di queste tecniche è stata la scoperta degli enzimi di restrizione, che sono in grado di riconoscere e frammentare particolari sequenze del DNA. Le tecniche del DNA ricombinante hanno completamente rivoluzionato la biologia, la biochimica e alcuni settori della biofisica, permettendo di effettuare una serie di interventi straordinari e assolutamente impensabili negli anni precedenti. Uno dei risultati più significativi ottenuti è la possibilità di isolare, dall'intero genoma (ossia da tutto il DNA di un organismo, vedi paragrafo n), singoli geni o altre sequenze del DNA e clonarli in batteri quali Escherichia coli. Il batterio viene così arricchito nel suo patrimonio genetico e possiede l'informazione necessaria per sintetizzare intere proteine o porzioni di queste attraverso il normale processo di biosintesi. Questa tecnica permette dunque di esprimere, su larga scala, regioni particolari del DNA che possono essere usate, per esempio, per studiare la sequenza primaria di una proteina. Con questa tecnica il batterio, che è una cellula procariote, può anche esprimere geni di u~a cellula eucariote di un organismo superiore (per la definizione di cellule procariote ed eucariote si rimanda al paragrafo IV). In questo modo ogni cellula batterica modificata si trasforma in una fabbrica di proteine normalmente prodo~te dalle cellule eucariote. Si possono così ottenere grandi quantità di proteine di eucarioti, spesso presenti solo in piccole quantità. La tecnica del DNA ricombinante ha anche permesso la realizzazione di nuovi tipi di esperimenti. Per esempio è possibile clonare il DNA che codifica per i canali ionici ossia per le proteine che mediano la permeabilità ionica della membrana cellulare. Questi segmenti di DNA vengono trascritti nella forma di RNA messaggero; quest'ultima molecola, iniettata in cellule ospiti, trasforma l'informazione genetica nelle corrispondenti proteine che, successivamente, saranno trasferite nella mem412
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
brana. Le cellule utilizzate sono generalmente costituite da uova di anfibi, che hanno un diametro di circa un millimetro e offrono quindi il vantaggio di un preparato biologico di dimensioni e geometria ottimali per la registrazione elettrofisiologica. Le proprietà funzionali dei canali ionici così ricostituiti riproducono strettamente quelle dello stato nativo. È possibile inoltre modificare in alcuni punti il DNA, ottenendo così proteine mutate in siti specifici: vedremo per esempio come, nei canali ionici, questa sostituzione permetta di collegare alcuni aspetti funzionali con la presenza di particolari aminoacidi carichi in posizioni critiche. Vi sono altri importanti esempi di applicazioni pratiche della tecnologia del DNA ricombinante. Il primo di questi esempi è stata la clonazione, realizzata nel 1977, di un gene capace di codificare l'insulina umana. Si sono così prodotte grandi quantità di insulina utilizzando come cellula ospite il batterio Escherichia coli. L'applicazione su base industriale di questa tecnica, che risulta economicamente molto vantaggiosa, risale al 1982. Con essa vengono ottenuti industrialmente altri ormoni peptidici, quali per esempio l'ormone della crescita, prodotto naturalmente dalla ghiandola pituitaria, alcuni emoderivati e l'interferone. Grazie a questa tecnica, inoltre, la speranza di riuscire a curare malattie genetiche è divenuta una possibilità reale; molte sono infatti le ricerche volte a trovare le modalità per sostituire un gene difettoso inserendo in gruppi di cellule il gene intatto. Questa procedura permetterebbe dunque di ottenere la produzione della proteina o del polipeptide mancante nell'organismo. L'accumularsi di conoscenze, non solo nel settore degli acidi nucleici, ma anche in aree centrali della biochimica e della biofisica (quali i meccanismi di azione degli enzimi e dei recettori e il controllo p1etabolico), ha già permesso la diagnosi e la cura di gravi malattie. Esemplari sono due grandi scoperte, che valsero agli autori il premio Nobel per la biologia e la medicina nel 1988. Sir James Black (Gran Bretagna) mise a punto i beta bloccanti, utilizzati nella cura del sistema cardio-circolatorio, mentre Gertrud Elion e George Hitchings (Stati Uniti) svilupparono analoghi chimici degli acidi nucleici e di vitamine, attualmente utilizzati per trattare la leucemia, infezioni batteriche, la malaria, l'herpes, alcune infezioni virali e l'AIDS. Anche in questo caso risultati importanti sono stati ottenuti grazie a un accostamento di tipo interdisciplinare al problema farmacologico, che si rivela strettamente legato a conoscenze e metodologie tipiche del settore biochimico e biofisico. Alcuni dei problemi fondamentali delle scienze della vita sono stati risolti proprio in virtù dello sviluppo multidisciplinare di conoscenze e di nuove tecniche. II
·
PROTEINE,
ACIDI
NUCLEICI
E
LIPIDI
È ormai stabilito che la materia vivente ubbidisce alle stesse leggi fisiche fondamentali che presiedono al comportamento di tutta la materia. Tutti gli sviluppi del settore fisico e chimico possono quindi essere trasferiti all'indagine delle macromolecole biologiche.
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
Fra i biopolimeri, le due classi di molecole più importanti sono le proteine e gli acidi nucleici. Le proteine hanno un enorme varietà di funzioni: alcune sono preposte al trasporto di ioni o piccole molecole, altre hanno un ruolo strutturale nell'impalcatura della cellula. Gli stessi anticorpi sono proteine, mentre la classe forse più importante di proteine è costituita dagli enzimi: molecole che catalizzano molteplici e complesse reazioni e che presiedono all'ordinato svolgersi dei processi metabolici. In linea di principio ogni cellula ha diverse migliaia di tipi di proteine; e la struttura delle proteine presenta vari livelli di organizzazione. La struttura primaria è data dalle sequenze degli aminoacidi, mentre la secondaria è data dalle strutture spaziali che la catena polipeptidica può costituire: una tipica struttura secondaria è un avvolgimento a elica. La struttura terziaria dà la disposizione spaziale della struttura secondaria (per esempio, l'avvolgimento a elica può essere ripiegato come una corda), mentre l'unità funzionale può essere data dall'insieme di più subunità e costituisce la struttura quaternaria (la fig. I riporta l'emoglobina, la proteina preposta al trasporto dell'ossigeno, come esempio di organizzazione strutturale). Lo studio di una proteina passa attraverso la sua purificazione con metodi cromatografici e l'analisi della sequenza degli aminoacidi. Attualmente la determinazione della sequenza degli aminoacidi viene fatta in modo quasi interamente automatico, mediante uno strumento (denominato in inglese sequenator) che è in grado di eseguire un'intera serie di reazioni e accumulare in provette separate i singoli aminoacidi (trasformati chimicamente), iniziando dal primo residuo (detto N-terminale). La struttura tridimensionale delle proteine viene determinata attraverso la diffrazione a raggi X, un metodo che attualmente fornisce un alto livello di risoluzione che si avvicina al decimo di nanometro (I0-9 m). Esso è tuttavia soggetto a una limitazione fondamentale, in quanto può essere utilizzato solo per proteine soggette a cristallizzazione. Questo processo per talune proteine è difficile, se non impossibile. Vengono allora utilizzati diversi altri metodi che possono essere raggruppati sotto la denominazione di tecniche spettroscopiche. Queste includono la spettroscopia in assorbimento, la fluorescenza, il dicroismo circolare e la risonanza magnetica nucleare (in inglese Nuclear Magnetic Resonance o NMR). Quest'ultima tecnica, il cui principio di funzionamento fu scoperto da E. Purcell (n. 1912) e F. Bloch (1905-83) indipendentemente l'uno dall'altro nel 1946, ha avuto recentemente importanti sviluppi, il più notevole dei quali è la risonanza magnetica nucleare bidimensionale. È noto che gli acidi nucleici conservano l'informazione genetica e la trasmettono presiedendo alla sintesi delle proteine. Abbiamo già visto che risultati rivoluzionari sono stati ottenuti clonando un gene o mutando un gene in un sito specifico, così da ottenere una proteina alterata in un particolare aminoacido (tecnica, questa, detta di mutagenesi sito-specifica). Gli acidi nucleici sono formati dalla ripetizione di quattro diversi tipi di unità fondamentali: ogni unità è formata da un gruppo saccaridico, un gruppo fosforico e una base azotata, e costituisce il mattone 414
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
Base
o Pentosio
Fig.
2.
Rappresentazione schematica della struttura chimica degli acidi nucleici.
fondamentale della molecola (vedi fig. 2). Esistono quattro diversi tipi di basi azotate (in seguito si parlerà semplicemente di basi) che costituiscono l'elemento distintivo fra un mattone e l'altro e permettono di costruire il linguaggio su cui si basa il codice genetico. La doppia elica del DNA, proposta nel 1953 da F.H.C. Crick (n. 1916) e J.D. Watson (n. 1928), ha messo per la prima volta in evidenza la stretta correlazione fra struttura e funzione in una molecola biologica. Dall'inizio del 1970 fu possibile isolare una quantità di DNA tale da permetteme l'analisi con metodi quantitativi sofisticati, che hanno portato, nel 1987, alla determinazione della mappa del genoma di Escherichia coli (ricordiamo che il genoma di un organismo è dato dalla sequenza di basi di tutte le molecole di DNA presenti nella cellula, e che la mappa genetica identifica le posizioni relative di particolari geni sui cromosomi). La determinazione della mappa genetica dell'Escherichia coli, che contiene 4,7 milioni di coppie di basi è stata possibile mediante l'uso degli enzimi di restrizione che, come abbiamo già visto in precedenza, permettono la frammentazione del DNA e il riconoscimento di sequenze di 6-8 basi, a seconda dell'enzima utilizzato. Questa tecnica è ora utilizzata per eseguire la mappa del genoma umano, un progetto che si presume richieda uno sforzo di più di una decina di anni di lavoro e un grande investimento economico. Infatti il genoma umano contiene circa 3 miliardi di coppie di basi di DNA ed è dunque una struttura ben più complessa di quella dell'Escherichia coli. 415
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
}
Testa polare
Coda idrofobica
a) b)
Fig. 3· a) La struttura di una molecola lipidica, ricostruita con un modello in cui le sfere rappresentano i singoli atomi. b) La raffigurazione di un lipide bipolare.
Un ultimo gruppo di molecole di grande rilevanza per la vita cellulare è costituito dai lipidi che, come vedremo, costituiscono la struttura di base delle membrane biologiche. Queste molecole sono formate da una parte idrofila, detta testa polare in quanto interagisce preferenzialmente con mezzi acquosi, e da un'altra parte, detta coda idrofobica o apolare, che rifugge da tali interazioni, in maniera simile a una goccia d'olio posta nell'acqua. Per questa sua doppia natura la molecola (rappresentata nella fig. 3a) viene detta anfipatica. Un gruppo particolare di microorganismi estremofili; di cui tratteremo nel paragrafo rv, presenta lipidi dotati di una doppia testa polare (la fig. 3b riporta la raffigurazione convenzionale di un lipide bipolare) . È proprio questa particolare struttura, come vedremo, a conferire stabilità alla cellula e a permettere la vita in condizioni estreme di temperatura e di acidità.
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
Fig. 4· Una microfotografia del citoscheletro, evidenziato con tecniche di immunofluorescenza. (Tratto da J. Dameli, H. Lodish e D. Baltirnore Molecular ce!! biology, New York 1986.)
III
·
NUOVI
METODI
DI
INDAGINE
BIOFISICA
E
BIOCHIMICA
r) Tecniche di immunologia n principio di funzionamento delle tecniche di immunofluorescenza è, nel contempo, semplice ed elegante. Per individuare la presenza di particolari molecole biologiche, come pure i processi dinamici in cui queste sono coinvolte o gli aggregati molecolari che esse possono formare, si utilizzano anticorpi contro queste molecole (che vengono dette molecole antigeniche o antigenz). Esperimenti effettuati iniettando in un ratto un antigene mostrano come ciò possa determinare la formazione di diversi anticorpi, ciascuno dei quali agisce in modo specifico su di una particolare porzione della molecola antigenica. In generale le sostanze immunogeniche, vale a dire quelle che inducono una risposta immunitaria o la sintesi di anticorpi, sono macromolecole. Tuttavia è anche possibile rivelare la presenza di molecole a basso peso molecolare, legandole chimicamente a proteine immunogeniche. In questo modo alcuni degli anticorpi possono essere sensibili proprio alla porzione non proteica. È questo il metodo utilizzato per determinare il livello di ormoni .steroidei o la presenza di alcune droghe. La reazione antigene-anticorpo può essere rivelata sia marcando radioattivamente l'antigene sia attraverso l'uso di sonde fluorescenti. In quest'ultimo caso il complesso fluorescente potrà essere individuato mediante l'uso di uno spettrofluorimetro o con tecniche di microscopia in fluorescenza. L'uso di anticorpi contro materiale biologico è divenuto sempre più frequente per mettere in luce particolari morfologici e funzionali della cellula. Mediante questa tecnica è stata evidenziata la straordinaria impalcatura della cellula: il citoscheletro. La scoperta di questa struttura (di cui parleremo più diffusamente nel paragrafo v), composta da filamenti actinici e miosinici dotati di una complessa morfologia (come illustra la fig. 4), si è infatti resa possibile, attraverso il microscopio a
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
fluorescenza, utilizzando anticorpi contro le proteine che costituiscono questi filamenti. La struttura dinamica della membrana cellulare, descritta dal modello a mosaico fluido è stata messa in evidenza con tecniche analoghe nell'esperimento di Freye e Edidin del 1971 (che verrà discusso nel par. v). Un'altra tecnica, detta ELISA, permette di analizzare quantitativamente la reazione antigene-anticorpo. Essa consiste nell'utilizzare un agente chimico che favorisce un legame covalente fra enzima e anticorpo. n legame fra l'anticorpo e l'antigene viene rilevato dalla variazione dell'attività catalitica dell'enzima coniugato con l'anticorpo. Questa tecnica è, per esempio, utilizzata per analizzare la presenza di infezione da HIV: a questo scopo, un anticorpo di una proteina superficiale del virus umano dell'immunodeficienza viene legato, mediante un legame covalente, a un enzima, e il complesso viene poi utilizzato per rivelare l'eventuale presenza dell'antigene in campioni di sangue umano. 2) Le nuove tecniche di microscopia ad alta risoluzione
Molti degli sviluppi delle scienze biologiche sono avvenuti grazie a contributi fondamentali forniti dalle scoperte della fisica. Gli esempi più rilevanti di questo secolo sono la microscopia elettronica, che ha chiarito il complesso panorama morfologico delle strutture biologiche con una risoluzione molto superiore a quella fornita dal microscopio ottico, e la diffrazione a raggi X, che ha fornito la più importante base sperimentale per lo studio della struttura di proteine, lipidi e DNA. Negli ultimi decenni lo sviluppo di sofisticati algoritmi ha inoltre permesso di aumentare il potere risolutivo di molte tecniche di indagine nel settore diagnostico. Ricordiamo, a titolo d'esempio, la risonanza magnetica nucleare (NMR), la tomografia assiale computerizzata (TAC), e la tomografia a emissione di positrone (in inglese PET), che costituiscono un insieme di tecniche in grado di fornire sia una mappa morfologico-funzionale del cervello, sia la struttura tridimensionale di un organo e di evidenziarne quindi le eventuali patologie. Nel settore più strettamente di ricerca, diverse tecniche di microscopia a elevata risoluzione hanno compiuto, a partire dagli anni settanta, sostanziali progressi. Particolarmente innovative sono le tecniche che permettono di ottenere l'immagine topografica di una struttura con risoluzione atomica. Ci limiteremo pertanto a illustrare i principi di funzionamento di due metodi rivoluzionari per l'analisi delle strutture a livello microscopico: il microscopio a scansione a effetto tunnel (in inglese Scanning Tunnelling Microscope, noto con l'acronimo STM) e il microscopio a forza atomica (Atomic Force Microscopy o AFM). Lo sviluppo del microscopio a scansione a effetto tunnel fu anticipato negli anni settanta da un dispositivo simile, il cosiddetto topografiner, che era in grado di fornire una risoluzione di qualche decina di nanometri. Le prestazioni di questo strumento erano fortemente limitate dalla mancanza di un appropriato isolamento dalle vibrazioni. G. Binnig e H. Rohrer, due scienziati americani, furono in grado di risolvere questo problema e, nel 1982, pubblicarono le prime immagini di superfici metalliche in cui erano visualizzati i singoli atomi. La comunità scientifica riconobbe l'impor418
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
tanza di questo strumento sia per gli sviluppi nella ricerca di base sia nel settore tecnologico e, nel 1986, ai due scienziati fu conferito il premio Nobel per la fisica. Nel microscopio a effetto tunnel una punta conduttrice, idealmente terminante con un solo atomo, è posta sufficientemente vicina a un campione conduttore, così da permettere l'instaurarsi di una corrente, detta di tunnel, in quanto gli elettroni, per un effetto quantistico, superano la barriera energetica fra punta e campione. Tale corrente dipende esponenzialmente dalla distanza fra i due oggetti conduttori. Una scansione del campione permette dunque di trasformare l'informazione ottenuta mediante la misura di correnti in un'immagine topografica della corrugazione a livello atomico del campione esaminato. In linea di principio, il microscopio a effetto tunnel permette di studiare grandi molecole organiche o, addirittura, sistemi di interesse biologico. Diversamente da quanto accade con il microscopio elettronico, l'energia coinvolta nella formazione dell'immagine è molto bassa, per cui si evita il danneggiamento del campione; inoltre, non è richiesta alcuna particolare procedura per la fissazione del campione. Tuttavia, la maggiore limitazione per lo studio dei materiali di interesse biologico risiede nel fatto che questi sono scarsamente conduttori. Se si impiega invece il microscopio a forza atomica, realizzato intorno alla metà degli anni ottanta, non è più necessario che il campione sia conduttore. L' AFM opera misurando la forza fra una punta, posta all'estremità di una microleva, e la superficie del campione. La deflessione della microleva, ottenuta durante la scansione del campione, permette di ottenere un'immagine topografica, su scala atomica, della superficie. Questo principio di funzionamento è lo stesso adottato dal profilometro a stilo, che potrebbe essere considerato il predecessore, a bassa risoluzione, dell' AFM. Tuttavia, è ben diversa la risoluzione dei due sistemi: infatti, mentre nel profilometro a stilo la risoluzione laterale è di -Ioo nanometri e quella verticale è di -l nanometro, nell' AFM i dettagli della superficie vengono risolti a livello atomico, cioè con una risoluzione del decimo di nanometro. L'applicazione a sistemi biologici della microscopia a forza atomica è un campo in forte espansione. Le prospettive più interessanti sono quelle legate alla visualizzazione di molecole complesse, quali le proteine. Può essere per esempio ricordato lo studio della struttura della membrana purpurea di Halobacterium halobium, che ha mostrato una disposizione ordinata delle molecole di batteriorodopsina (la proteina presente in tale membrana), secondo un reticolo esagonale analogo a quello ottenuto con la diffrazione di elettroni. Questa tecnica apre prospettive nuove, quali la visualizzazione e lo studio in situ di macromolecole organiche, e potrà forse permettere l'osservazione di cambiamenti conformazionali delle proteine legati a un loro ruolo fisiologico. 3) Tecniche per lo studio delle membrane
Lo studio della struttura e delle funzioni delle membrane cellulari è complicato dal complesso ruolo che esse svolgono e dall'interferenza fra i numerosi processi fisiologici. Molte delle nostre conoscenze sulla struttura derivano da studi di
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
microscopia elettronica, mentre proprietà funzionali e di trasporto hanno richiesto l'uso di sistemi modello semplificati. Studi pionieristici sulle proprietà di trasporto delle membrane artificiali furono compiuti da T. Teorell, considerato uno dei fondatori di questa scienza. Tuttavia, i tentativi di realizzare in laboratorio membrane modello, costituite da un doppio strato lipidico come le membrane biologiche, ebbero successo solo nel 1962, quando Rudin, Mueller, Tien e Wescott riuscirono a ottenere un doppio strato lipidico stabile su di un forellino posto in un setto di separazione fra due compartimenti contenenti soluzioni saline. Queste membrane, denominate anche « membrane lipidiche nere » perché tali appaiono all'osservazione ottica, sono state di grande utilità per lo studio di modelli di trasporto. Infatti, inserendo in esse particolari molecole polipeptidiche costituite da una decina di aminoacidi, è stato possibile mimare il processo di trasporto ionico mediato da canali o da «trasportatori » mobili e darne una descrizione in termini di eventi molecolari. Questi esperimenti hanno avuto una grande rilevanza per la comprensione del processo di eccitabilità nelle cellule nervose (vedi par. vn). Un altro metodo, messo a punto negli anni settanta e rivelatosi particolarmente utile, è basato sulla preparazione di vescicole sferiche (dette anche liposomi) formate da un semplice doppio strato lipidico di dimensioni variabili da qualche decina di nanometri fino al micrometro (ro - 6 m). Le vescicole sono disperse in una soluzione acquosa la cui composizione può essere diversa da quella del loro interno: anche in questo caso si possono studiare le proprietà di permeabilità della membrana, in particolare mediante l'uso di tecniche di fluorescenza. Sia i doppi strati lipidici planari sia i liposomi si sono rivelati di estrema utilità nei processi di ricostituzione, vale a dire in quei processi in cui si ricreano, in un sistema artificiale, le stesse proprietà funzionali che molecole quali enzimi, canali ionici e recettori, hanno nel complesso sistema fisiologico. Per esempio è stato possibile ricostituire alcuni sistemi di trasporto isolando le proteine che formano canali e reinserendole nella matrice lipidica. Similmente un grande successo degli anni ottanta è stata la ricostituzione del recettore dell'acetilcolina, il neurotrasmettitore preposto alla trasduzione degli stimoli nervosi, di cui parleremo nel paragrafo VIII. Un'altra tecnica utilizzata per lo studio dei cambiamenti strutturali nelle membrane è la microcalorimetria differenziale. Mediante questa tecnica, che consiste nel misurare la quantità di calore necessaria per aumentare nella stessa misura la temperatura di un campione e quella di un sistema di riferimento, vengono messi in evidenza i cambiamenti conformazionali del sistema analizzato. Alla temperatura di transizione fra due diverse configurazioni del sistema, la quantità di calore fornita al campione indagato sarà infatti superiore a quella del campione di riferimento. Come vedremo in seguito, nel caso dei lipidi di membrana la transizione da una configurazione rigida a una flessibile è un'informazione di estremo interesse e pertanto anche altre tecniche spettroscopiche sono state sviluppate a questo scopo. Particolare rilevanza ha avuto la tecnica basata sulla risonanza di spin degli elet420
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
Fig. 5· illustrazione schematica delle cellule procariote ed eucariote. (Tratto da <>, 156, agosto r98r.)
troni (in inglese Electron Spin Resonance, ESR). Essa ha molti punti di contatto con la tecnica NMR, ma coinvolge cambiamenti nello spin di elettroni disaccoppiati; in questo caso si usa marcare il campione con un composto che abbia elettroni disaccoppiati. Per esempio, nello studio dei lipidi di membrana sono state spesso utilizzate sonde in cui alla testa polare veniva sostituito un composto molto simile e contenente un gruppo nitrossido NO, avente appunto tale caratteristica. Lo spettro ESR di un sistema così marcato fornisce preziose informazioni sulla mobilità delle teste polari dei lipidi di membrana, mentre altri tipi di sonda possono dare informazioni sull'interno della membrana stessa o sulla mobilità di proteine di membrana. IV ·
LA SCOPERTA DELLA VITA IN CONDIZIONI ESTREME . ORIGINE DI UN NUOVO CONCETTO EVOLUTIVO
Una prima classificazione della vita sulla terra si basava sulla dicotomia piante e animali. Questa classificazione piuttosto rozza fu superata grazie a una conoscenza più approfondita della morfologia delle cellule e delle complesse strutture subcellulari (i cosiddetti organuli). La successiva classificazione, basata sulla struttura endocellulare quale si è rivelata al microscopio elettronico, divide gli organismi (sia unicellulari sia pluricellulari) in procarioti ed eucarioti. I primi, di dimensioni circa r j..l.m, non sono provvisti di nucleo distinto, mentre i secondi, delle dimensioni di ro j..l.m, sono dotati di una struttura molto più complessa. Questi ultimi possiedono un nucleo che racchiude il materiale genetico e sono ricchi di organuli intracellulari con funzioni molteplici, che vanno dal metabolismo generale della cellula alla fosforilazione, all'ossidazione e ai trasferimenti di energia (vedi fig. 5). 421
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
Pecora Bovinafetale
Fig. 6. Un albero filogenetico ottenuto riportando segmenti proporzionali alla distanza genetica della catena fi dell'emoglobina. I numeri rappresentano le mutazioni per 100 residui. (Modificato da C.R. Cantor e P.R. Schimmel Biophysical chemistry, San Francisco 1980.)
Lo sviluppo di nuove discipline, quali la genetica, la biochimica e la biofisica, che affiancano la biologia con procedure rigorose, ha portato a un nuovo metodo nella classificazione degli organismi. Mentre la classificazione introdotta da Linneo era basata sulla similitudine dei caratteri morfologico-funzionali, la nuova procedura si muove su un'analisi comparativa dei caratteri genetici. È possibile definire una distanza genetica fra due proteine omologhe (per esempio l'emoglobina del cane e quella dell'uomo) in base al numero di variazioni che si hanno nella sequenza degli aminoacidi che costituiscono le proteine stesse; si potrà dunque, in linea di principio, costruire un nuovo albero genealogico (o, in termini evolutivi, un albero filogenetico) basato su questo nuovo concetto di distanza genetica. Questa procedura ha portato ad analisi molto interessanti: per esempio, quella centrata sul confronto tra proteine preposte alle stesse funzioni in organismi estremamente diversi. Un'applicazione è illustrata alla fig. 6. Essa rappresenta un albero filogenetico (ottenuto riportando segmenti proporzionali alla distanza genetica fra le 422
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
Archaea
Fig. 7· Una rappresentazione schematica dei tre domini fondamentali in cui si articolano tutte le forme di vita.
diverse specie animali) di una particolare subunità proteica, la catena f3 dell' emoglobina (vedi anche fig. 7); i risultati mostrano che quanto maggiore è la distanza evolutiva fra due organismi, tanto più dissimile è la mappa molecolare; così l'emoglobina umana è quasi identica a quella di un gorilla, ma è molto diversa da quella di una rana. Un altro esempio, derivante dall'analisi dei canali ionici, ha permesso di scoprire, in questa classe di proteine, quali siano i motivi strutturali dettati dalle sequenze aminoacidiche che si conservano in specie viventi altàmente dissimili. È facile intuire come questa tecnica possa anche essere un potente strumento per indagare sulle origini della vita, se si riescono a individuare molecole simili (proteine o acidi nucleici) che svolgano lo stesso tipo di funzioni. In questa direzione è andato il tentativo di Carl Woese e dei suoi collaboratori che, verso la fine degli anni settanta, raccolsero ed elaborarono una messe enorme di dati diretti alla definizione di distanza genetica fra procarioti, eucarioti e microorganismi estremofili. La scoperta della grande varietà di microorganismi in grado di sopravvivere in condizioni ambientali estreme e la loro diffusione quasi ubiquitaria sulla Terra suggerirono l'idea che essi potessero rappresentare le prime forme di vita. 1 Da queste considerazioni prese le mosse Woese con l'intento di valutare la differenza fra
r La scoperta di microorganismi in grado di crescere a temperature molto superiori a quelle usualmente osservate per la maggior parte degli organismi viventi risale al r888 , quando P. Miguel isolò un batterio acquatico in grado di crescere a 73 °C. Dovette però passare quasi un secolo prima che si intuisse l'enorme interesse di questi microorganismi quali ultimi testimoni di forme di vita esistenti sulla terra tre miliardi e mezzo di anni fa. Questi microorganismi vivono a temperature comprese fra 50 e 100 oc (o anche più elevate nelle profondità marine); a causa di tali condizioni ambientali essi si sono confinati in alcune nicchie ecologiche per lo più
presenti in aree vulcaniche quali l'Italia, il Nordamerica, la Nuova Zelanda, l'Islanda e il Giappone. Altre forme di vita sono presenti in ambienti totalmente inusuali, come quelli che si realizzano in laghi in cui la concentrazione salina è altissima (satura o quasi satura): si tratta di microorganismi alofili. Vi è infine un gruppo di microorganismi, i metanogeni, che vivono in condizioni anaerobiche in pozze di acqua stagnante in rifiuti organici o nel tratto gastrointestinale degli animali: questi microorganismi sono in grado di trasformare anidride carbonica e idrogeno in metano (e vengono infatti utilizzati per la trasformazione delle biomasse).
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
questi microorganismi e le usuali cellule eucariote e procariote in termini di distanza genetica. Come sonda molecolare fu scelto un frammento di RNA ribosomiale denominato 16S (dal valore della velocità a cui esso sedimenta), particolarmente adatto all'analisi, perché presente in tutti i tipi di cellula. I risultati furono clamorosi: infatti, benché i microorganismi estremofili siano morfologicamente simili ai procariati, la loro distanza genetica è tanto lontana dai procarioti quanto dagli eucarioti. Questa scoperta portò Woese a proporre un nuovo albero evolutivo, non più basato su una dicotomia, bensì su una suddivisione di tutte le forme di vita degli organismi, sia unicellulari sia pluricellulari, in tre domini fondamentali (come indicato alla fig. 7): gli Eucarioti, i Batteri e gli Archaea (spesso denominati anche archeobatteri). Il nome Archaea fu proposto da Woese per sottolineare l'ipotesi che questi organismi costituissero le prime forme di vita presenti sulla terra (circa 3,5 miliardi di anni fa): alte temperature e scarsa presenza di ossigeno sono infatti le tipiche condizioni ambientali dell'era dell'evoluzione prebiotica. Diversi fattori avvalorano questa ipotesi: è stato trovato per esempio un microorganismo termofilo normalmente aerobico, ma in grado di sopravvivere in condizioni anaerobiche; in altri termini, esso può utilizzare due diverse vie metaboliche ed è dunque stato in grado di adattarsi alla progressiva comparsa di ossigeno sulla terra. Un altro dato che avvalora la proposta di Woese è legato alla natura dei lipidi di membrana. Queste molecole sono dissimili da tutte quelle esistenti sia nei batteri sia negli eucarioti: una delle differenze risiede nella coda idrofobica, formata da catene ramificate anziché lineari: nei sedimenti petroliferi più antichi si è trovato petrolio formato proprio da catene ramificate e, quindi, presumibilmente derivante da questo gruppo di microorganismi. Questi microorganismi, e in particolare i termofili, sono di estremo interesse dal punto di vista biochimico e biofisico, perché permettono di studiare i fattori che determinano la termostabilità sia delle singole molecole, sia delle strutture in cui queste si organizzano. Fino alla scoperta di questo sistema biologico atipico si riteneva che le proteine e gli acidi nucleici dovessero presentare strutture del tutto peculiari per resistere alle alte temperature. Infatti la membrana cellulare non resiste agli stress ambientali derivanti da elevati cambiamenti di temperatura, e la !abilità termica delle proteine e degli acidi nucleici, ne impedisce il funzionamento a temperature così elevate. In realtà, negli archeobatteri termofili i lipidi che formano la membrana cellulare sono dotati di una doppia testa polare (come indicato alla fig. 3b), cosicché nella membrana non esiste il piano mediano di frattura, che è la zona meccanicamente più debole; mentre le proteine dei termofili differiscono dalle molecole gemelle degli altri organismi in piccolissimi dettagli, come per esempio la sostituzione di un aminoacido in posizione chiave. Molti studi sono ancora in corso in questo settore, che si presenta foriero di preziose informazioni su quesiti di base della biofisica e della biochimica e passibile di importanti applicazioni biotecnologiche. 424
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica V
· LA
MEMBRANA
BIOLOGICA:
IL
CONCETTO
DI
PLASTICITÀ
Non esistono sul nostro pianeta forme di vita che non siano organizzate come cellule (i virus non possono essere considerati sistemi viventi autosufficienti in quanto, di tutte le funzioni della cellula, possiedono solo la capacità di trasmettere il programma genetico). Le cellule sono circondate da una membrana, detta membrana plasmatica. La membrana plasmatica è stata considerata, per molti anni, una semplice barriera passiva, a guisa di un contenitore il cui scopo è unicamente determinare il volume cellulare. Al contrario, essa svolge un'enorme quantità di funzioni, trasferendo informazione, energia e materia fra interno ed esterno della cellula medesima. Un'analisi biochimica indica che la membrana è costituita essenzialmente da lipidi e proteine, presenti all'incirca nella stessa quantità, e, in misura minore, da colesterolo, acqua, ioni metallici e gruppi saccaridici. Vi sono però alcune situazioni limite: per esempio nel caso della mielina, la membrana che ricopre la fibra nervosa, il rapporto in peso è di 9:1 in favore dei lipidi, mentre nella membrana mitocondriale la componente proteica è predominante. Nella membrana sono anche presenti carboidrati che, associandosi con lipidi e proteine, possono dare origine sia a glicolipidi, sia a glicoproteine. Caratteristica della membrana citoplasmatica è la grande varietà sia di lipidi, sia di proteine. Ciò non stupisce nel caso delle proteine, data la complessità dei ruoli funzionali che esse svolgono, mentre tale varietà non è altrettanto spiegabile per i lipidi. Studi recenti hanno tuttavia dimostrato che alcune attività enzimatiche e proteiche richiedono l'interazione con lipidi particolari; la complessità della composizione lipidica servirebbe dunque a modulare la fluidità locale delle membrane, onde regolare l'attività delle proteine. Tuttavia attribuire ai lipidi questo unico ruolo funzionale sembra alquanto riduttivo, anche in considerazione delle complesse strutture cristalline che queste molecole sono in grado di assumere. Studi recenti indicano che questa varietà di lipidi potrebbe giocare un importante ruolo nel processo di fusione fra membrane. È noto infatti che vi sono alcuni processi, quali l' endocitosi o l' esocitosi di vescicole, la fusione fra due cellule o fra una cellula e un virus, che comportano una trasformazione topologica da due membrane giustapposte a un'unica membrana. In questi casi la trasformazione avviene attraverso la creazione di una struttura intermedia la cui formazione è strettamente legata alla presenza di particolari classi di lipidi. Nonostante il grande numero di funzioni svolte, tutte le membrane hanno la stessa struttura di base, consistente in un doppio strato lipidico, di spessore 4-5 nanometri, formato dall'apposizione idrofobica delle due code idrocarburiche. Inoltre la membrana presenta tra l'interno e l'esterno un'asimmetria sia chimica sia strutturale che riflette la differenza di funzionamento delle cellule all'interno e all'esterno. Questa disposizione a doppio strato è caratteristica non solo della membrana plasmatica, ma di tutte le membrane che circondano gli organelli interni intracellulari. L'indagine di questa struttura riveste pertanto un interesse generale. Unica eccezione 425
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
B
Fig. 8. I primi modelli di membrana: il modello Danielli-Davson. A) lipidi; B) proteine.
a questa regola è costituita dalla membrana di taluni microorganismi termofili, formata, come abbiamo visto, da un unico strato molecolare, in quanto i lipidi possiedono una doppia testa polare (vedi fig. 3b). Possiamo anche dire che in questo caso il doppio strato è stabilizzato da un legame covalente nella regione intermedia di apposizione delle catene idrofobiche. Nel 1925 E. Gorter e F. Grendel estrassero i lipidi dalle membrane plasmatiche di eritrociti, e determinarono l'area che questi ricoprono se sono disposti su una superficie all'interfaccia aria-acqua. Tale valore risultava essere doppio dell'area complessiva della superficie dei globuli rossi: Gorter e Grendel conclusero che la membrana plasmatica doveva essere formata da un doppio strato lipidico. Successivamente, negli anni trenta, J.F. Danielli e H. Davson (che curiosamente non conoscevano gli esperimenti sopra esposti) riproposero un analogo modello, raffinato poi negli anni cinquanta. In questo modello, elaborato anche in base a considerazioni termodinamiche, il doppio strato lipidico è ricoperto dai due lati da uno strato continuo di proteine penetranti, in alcune zone, attraverso il doppio strato stesso (vedi fig. 8). Vengono così introdotti elementi strutturali che permettono la permeazione
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
della membrana. Infatti, come vedremo più diffusamente nel paragrafo vr, la nozione che la cellula sia in uno stato di disequilibrio che comporta la presenza di flussi ionici attraverso la membrana, fu chiara solo dopo gli esperimenti con radioisotopi, intrapresi negli anni trenta. li modello Danielli-Davson non poteva basarsi, all'epoca in cui fu proposto, su una conoscenza approfondita delle caratteristiche strutturali e termodinamiche dei componenti di membrana. Durante gli anni sessanta, grazie allo sviluppo e al perfezionamento di tecniche quali la diffrazione a raggi X, la microscopia elettronica ad alta risoluzione, la calorimetria differenziale, la spettroscopia Raman e la risonanza magnetica nucleare, furono chiarite sia le proprietà chimico-fisiche e strutturali dei lipidi e delle proteine, sia le mutue interazioni fra queste molecole. Ci si convinse allora che la struttura delle membrane dovesse essere meno statica di quanto Danielli e Davson avessero proposto. Un esperimento di immunofluorescenza, realizzato nel 1971 da C.D. Freye e M. Edidin, rese particolarmente evidente la struttura dinamica della membrana. Alcuni anticorpi di proteine di membrana di cellule umane e di topo vennero marcati con due diversi tipi di sonde fluorescenti. Si indusse poi la fusione delle due cellule e si seguì la localizzazione delle sonde fluorescenti che, a seguito della reazione antigene-anticorpo, indicavano chiaramente la posizione delle proteine di membrana. Inizialmente, le proteine umane e murine apparivano nettamente separate e collocate su poli opposti della nuova struttura formatasi a seguito della fusione delle due cellule. Se la temperatura veniva mantenuta al di sotto di quella fisiologica, la struttura appariva congelata in tale configurazione. Viceversa, innalzando la temperatura a 37 oc, dopo circa 20 minuti le proteine umane e murine erano completamente mescolate. Questo esperimento indicò in primo luogo la possibilità, per le proteine di membrana, di muoversi nel piano della membrana stessa, e, in secondo luogo, esso mise in evidenza quanto sia importante che la membrana, in condizioni fisiologiche, sia in uno stato fluido. S.J. Singer e G.L. Nicholson introdussero nel 1972 un modello che denominarono a mosaico fluido e che era basato sull'insieme dei nuovi dati sperimentali a loro disposizione. Secondo questo modello, la membrana è costituita da un doppio strato lipidico fluido, le cui molecole sono libere di muoversi nel piano della membrana stessa, scambiando il loro posto con quello delle molecole vicine a una frequenza di un milione di volte al secondo. Il movimento nel piano perpendicolare alla membrana è energeticamente sfavorito ed è quasi totalmente assente. In questo continuo bidimensionale navigano le proteine, trascinando nel loro moto diffusivo la corona lipidica circostante come un anello di solvatazione. Le proteine potrebbero penetrare attraverso la membrana sia per l'intero spessore, sia per una sola parte di esso (proteine integrali o intrinseche) o essere solo legate alla superficie (proteine perz/eriche o estrinseche). Analogamente ai lipidi, anche le proteine possono spostarsi lateralmente: la visualizzazione che si può dare del
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
modello (illustrato alla fig. 9) è quella di un mare di lipidi contenente, come iceberg, le proteine. È possibile, utilizzando la tecnica del congelamento e frattura (/reeze-/racture), osservare la struttura interna delle membrane. Il preparato biologico, sottoposto a congelamento rapido (intorno ai -!80 °C), viene trasferito nel vuoto e fratturato con una lama sempre a bassa temperatura. La frattura può avvenire lungo la superficie mediana della membrana, poiché questa costituisce un piano di minore resistenza meccanica. Il piano di frattura viene ombreggiato con carbone e platino in modo da ottenere una replica della superficie. L'osservazione al microscopio elettronico della replica presenta particolari che, a causa dell'ombreggiatura, appaiono tridimensionali. È così possibile osservare granulosità che rappresentano proteine o aggregati proteici che costituiscono una delle evidenze più chiare della validità del modello proposto. La fig. 9 mostra anche la complessa struttura di sostegno e ancoraggio della cellula, i microtubuli e un insieme di strutture fibrillari di diametro minore, i microfilamenti. Come già osservato al punto I) del paragrafo m, essi costituiscono l'impalcatura del citoscheletro, la cui organizzazione tridimensionale, messa in evidenza da tecniche di immunofluorescenza, è riportata alla fig. 4· Microtubuli e microfilamenti sono formati dalla polimerizzazione di subunità di proteine dette rispettivamente actina G e tubulina. Il citoscheletro svolge un complesso insieme di funzioni: dal movimento delle cellule, delle strutture subcellulari e dei cromosomi, al battito delle cilia e dei flagelli. Inoltre, la determinazione della forma cellulare, specialmente in alcuni tipi specializzati di cellule quali le fibre nervose, è ancora un processo legato al complesso insieme di proteine fibrose localizzate nel citoplasma e formanti il citoscheletro. VI
• LA
MEMBRANA
CELLULARE:
RELAZIONE
STRUTTURA-FUNZIONE
Il modello a mosaico fluido, sebbene probabilmente non definitivo, permette di avere una visione di insieme della struttura della membrana. Consideriamo ora, brevemente, le funzioni principali svolte dalla membrana. Come già detto, esse sono essenzialmente il trasferimento di materia, energia e informazione dall'esterno all'interno della cellula e viceversa. Si tratta dunque di funzioni che mettono in relazione la cellula con il suo ambiente, facendone un sistema aperto. Tutte le molecole presenti nella membrana (lipidi, proteine, zuccheri, colesterolo) hanno un ruolo specifico nelle funzioni che quest'ultima deve svolgere. I processi che coinvolgono trasferimenti di informazione (come il riconoscimento cellulare, molte reazioni immunitarie e le risposte ormonali), coinvolgono gli zuccheri, i quali sono localizzati solo all'esterno della superficie della membrana. Le glicoproteine e i glicolipidi formano strutture dinamiche che si adattano alle molecole da riconoscere e perciò la struttura stessa della membrana cambia a seconda delle molecole presenti nel fluido
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
extracellulare. Questi processi di riconoscimento originano spesso aggregati molecolari relativamente rigidi. In essi, anche un'estesa parte della membrana può assumere una struttura organizzata che ricorda il modello, proposto da Changeux nel 1967, di un reticolo cristallino bidimensionale. Per illustrare i trasferimenti di materia ed energia consideriamo il trasporto ionico. Solo negli anni trenta, con l'avvento dei radioisotopi, si ebbero dati sperimentali chiari sulla permeabilità ionica della membrana ,e si scoprì che gli ioni non sono distribuiti fra interno ed esterno della cellula in una situazione di equilibrio termodinamico. La membrana cellulare mantiene tuttavia una differenza di concentrazione costante tra il suo interno e l'esterno; per mantenere costanti le concentrazioni intracellulari è infatti necessario un flusso ionico in direzione opposta alle forze di natura chimica ed elettrica. Questo processo, che verrà analizzato in dettaglio nel seguito di questo paragrafo, è detto trasporto attivo e avviene a spese dell'energia chimica e metabolica della cellula. Si calcola che circa il 25% dell'energia basale della cellula sia impiegata per far funzionare le pompe ioniche, cioè i meccanismi preposti al funzionamento del trasporto attivo. Alcune pompe ioniche sono note dettagliatamente, come accade nel caso della cosiddetta pompa sodio-potassio, in cui l'ingresso nella cellula di due ioni potassio è generalmente accoppiato alla fuoriuscita di tre ioni sodio. Il fatto che la cellula spenda energia per mantenere diseguali concentrazioni ai lati della membrana ·plasmatica fa supporre che questa disuguaglianza abbia un ruolo fisiologico importante. Per esempio, la differenza di concentrazione ionica regola la pressione osmotica e quindi, attraverso il flusso d'acqua, il volume delle cellule. Nello stesso tempo il mantenimento della concentrazione intracellulare è funzionale allo svolgimento del processo di biosintesi delle proteine in condizioni ottimali. Ci si può chiedere come sia possibile sfruttare energia metabolica per determinare flussi di materia in direzione opposta alle forze di natura chimica ed elettrica. La risposta in termini concettuali a questa domanda è stata data dalla termodinamica dei processi irreversibili. 2 La termodinamica classica tratta gli stati di equilibrio, ma non è in grado di descrivere i fenomeni che avvengono durante una trasformazione reale, vale a dire in un processo che si svolga lontano dall'equilibrio termodinamico. La termodinamica dei processi irreversibili estende i concetti della termodinamica classica a sistemi lontani dall'equilibrio. Si riescono così a spiegare molti fenomeni che coinvolgono l'interazione tra flussi di diversa natura (per esempio un flusso di calore e un flusso di materia, un flusso di cariche elettriche e il moto del solvente). Questa trattazione mostra anche come una reazione chimica (nel caso che a noi interessa, una reazione metabolica) accoppiata a un flusso ionico renda possibile il moto anche in direzione
2 Gli sviluppi di questo importante settore si devono principalmente a I. Prigogine, insignito, nel
1977, del premio Nobel per la chimica.
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
c::>\ :
:l
~
:l
:l
I:
jl
fl
l: 9Na f : l : :
. /:
'
\'
'
·.
\ ...
·.
·.
\ -. . ..
\. . . . .
\ \. .~m \
\. \
\
:' ....
l
r··-······/j 2
........................................................................................ ..
Fig. Io. L'andamento temporale del potenziale d'azione (V ) e delle conduttanze degli ioni sodi o (gN.J e potassio (gk). m
opposta alle forze di natura chimica ed elettrica, senza che per questo vengano violate le leggi generali della fisica. Il trasporto attivo di una particolare sostanza avviene dunque quando si realizza questo tipo di accoppiamento. Un altro fenomeno molto importante, determinato, oltre che dalla differenza di concentrazione, anche dalla permeabilità selettiva delle diverse specie ioniche, è la differenza di potenziale che si stabilisce ai lati della membrana (potenziale di riposo o di membrana). Nelle membrane eccitabili l'interno della cellula è negativo rispetto all'esterno: come vedremo più diffusamente nel paragrafo successivo, è la differenza di potenziale che pilota il comportamento della membrana e raggiunge, a riposo, valori di 60-70 millivolt. Se, a causa di qualche stimolo esterno, questo potenziale diminuisce in valore assoluto (cioè diventa meno negativo), allora si dice che la membrana viene depolarizzata. La depolarizzazione innesca un meccanismo di variazioni selettive di permeabilità, in cui vengono convolti in particolare gli ioni sodio e potassio e che si traduce nella produzione di un impulso nervoso o potenziale d'azione (vedi fig. w). 430
www.scribd.com/Baruhk
Fig. l. La struttura dell'emoglobina, la proteina preposta al trasporto dell'ossigeno. (Tratto da R. E. Dickerson e I. Geis The structure an d action o/ proteins, 1969 .)
www.scribd.com/Baruhk
www.scribd.com/Baruhk
Segmento esterno
Reticolo endoplasmaticofru vi do
Segmento interno
l
a)
b)
Fig. 15. Struttura di un bastoncello. a) Rappresentazione schematica; b) una microscopia elettronica. (Tratto da I. Darnell, H. Lodish e D . Baltimore Molecular cell biology, New York 1986.)
www.scribd.com/Baruhk
www.scribd.com/Baruhk
a)
Dendriti
b)
Terminale presinaptico
1
t
Stimolo
~ tempo
G)
<:
o
.N ~
Cl
$
-=
Potenziale del recetto re ,
1~
t Origine del Monticolo assoni co
tempo
potenziale d'azione
________________ _t Impulsi tutto-o-nulla
1
Ili l l tempo
o
..... .. -
........
"'a.
Potenziale sinaptico,
:;
~
Q)
-o Q)
1~
Sistema nervoso centrale
<:
tempo
o
.N :l
-o <:
o
(.)
Guaina mielinica
l
Impulsi tutto-o-nulla
1Ili l
Secrezione del mediatore ------- ------------ _t_ ---- ----
Fig. 14. Esempio di propagazione di un segnale elettrico attraverso giunzioni sinaptiche. a) Rappresentazione del motoneurone di un vertebrato; b) l'alternanza di segnali elettrici graduati e « tutto-o-nulla » in un circuito nervoso. (Tratto da R. Eckert e D. Randall Fisiologia animale, meccanismi e adattamenti, Bologna 1985. )
www.scribd.com/Baruhk
www.scribd.com/Baruhk
Segmento esterno
IJ.Q::_:::::..Je-
Microtubuli
l
Mitocondri .
l
Reticolo endoplasmaticofruvido
Segmento interno
l
a)
b)
Fig. 15. Struttura di un bastoncello. a) Rappresentazione schematica; b) una microscopia elettronica. (Tratto da I. Darnell, H. Lodish e D. Baltimore Molecular cell biology, New York 1986.)
www.scribd.com/Baruhk
www.scribd.com/Baruhk
PLACC~
DEL PACIFICO
·'
·-<;10"---...· .
.
l
:;
7
~ .· • 4
-\
---
~\
Zone di coll isione conti nentale
Limiti di placca divergenti .........., Zone di subduzione oceanica
--
-~
Movimenti delle placche
Velocità di espansione 6 (cm per anno) Velocità di subduzione 11 (cm per anno)
Fig. 6. Nella carta sono rappresentate le principali placche litosferiche e la loro direzione di movimento (frecce). La linea a tratteggio più marcato indica le zone di subduzione e le profonde fosse oceaniche; i pallini neri evidenziano la distribuzione dei terremoti.
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
(a)
(c)
(b) Dendriti
(d)
Dendriti
Corpo cellulare
assoni co
Cellule recettrici
Corpo cellulare
Assone Corpo cellulare Nodi di Ranvier
Terminali asso n ici
Giunzione neuromuscolare
Terminali assoni ci
Fig. IL Alcuni tipi di cellule neuronali. (Tratto da I. Dameli, H. Lodish e D. Baltimore Molecular ce/l biology, New York 1886.)
La sequenza specifica di cambiamenti di permeabilità che dà luogo al potenziale d'azione è stata derivata da Hodgkin e Huxley (premiati col Nobel nel 1963), attraverso l'ideazione e la realizzazione di una ingegnosa tecnica, detta del blocco di tensione (in inglese voltage clamp), che mantiene il potenziale di membrana a valori prefissati. La corrente necessaria a determinare tali valori è dovuta in massima parte al passaggio di ioni sodio e potassio; i due studiosi ipotizzarono che tali correnti fossero legate all'attivazione di canali ionici (selettivi e specifici per le due diverse specie chimiche), la cui conduttanza fosse modulata dal campo elettrico, e la scoperta che alcuni veleni, come il rrx (tetradotossina) o il TEA (tetraetilammonio), bloccano 432
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
rispettivamente il trasporto del sodio e quello del potassio costituì una conferma a questa ipotesi. Questi canali presenterebbero dunque tre caratteristiche fondamentali: a) la selettività ionica; b) la capacità di modulare l'efficienza di trasporto ionico grazie a uno stimolo elettrico; c) la non linearità della risposta elettrica. Gli aspetti molecolari del processo di eccitabilità erano stati previsti con stupefacente intuizione da Hodgk.in e Huxley; tuttavia dovevano passare quasi trent'anni prima che l'introduzione di una nuova tecnica, detta del patch clamp desse corpo reale alle ipotesi e alle intuizioni. Questa tecnica, introdotta da E. Neher (n. 1944) e B. Sackmann nel 1973 (che valse loro, nel 1991, il premio Nobel per la biologia e la medicina) ha costituito una vera e propria rivoluzione nello studio dei segnali cellulari. L'idea che la permeabilità di membrana potesse essere mediata da proteine transmembrana veniva via via diffondendosi a seguito della maggiore conoscenza della struttura della membrana plasmatica (ricordiamo che è del 1972 il modello a mosaico fluido). Molto importanti furono negli anni settanta, i lavori sui doppi strati lipidici artificiali. In particolare, alcuni esperimenti, effettuati negli Stati Uniti da un gruppo di ricercatori guidati da Bean e, in Europa, da S.B. Hladky a D.A. Haydon, mostravano come, in membrane artificiali, tracce di particolari antibiotici potessero dar luogo a rapide e ben distinte variazioni di corrente transmembrana. Quasi contemporaneamente B. Katz (n. 1911) e R. Miledi registravano segnali elettrici nella giunzione neuromuscolare (di cui parleremo nel paragrafo vm) che erano, di fatto, dello stesso ordine di grandezza di quelli dei sistemi artificiali. La conclusione di questo insieme di esperimenti spinse Neher e Sackmann a tentare di registrare direttamente dalla cellula l'attività elettrica dei singoli canali ionici. L'idea di base era semplice: utilizzare una micropipetta di vetro per registrare l'attività elettrica di una piccolissima area di membrana. La realizzazione pratica di questa idea richiese tuttavia il superamento di molte difficoltà. Innanzitutto occorreva evitare la presenza di correnti di perdita fra la micropipetta e la membrana; infatti queste avrebbero potuto essere di tale entità da mascherare completamente il fenomeno elettrico da registrare. In secondo luogo, poiché le correnti ioniche legate all'attività dei singoli canali sono dell'ordine del millesimo di miliardesimo di ampère (unità detta picoampère), una difficoltà notevole risiedeva nel separare il segnale elettrico dal rumore dovuto a fenomeni spuri. La messa a punto della tecnica richiedeva dunque un grosso sforzo nel miglioramento della « saldatura » fra la pipetta di vetro, che serviva come elettrodo di misura, e la membrana. Quest'ultimo risultato fu ottenuto da Neher e Sackmann mediante due accorgimenti. Il primo consisteva nel ripulire accuratamente la superficie cellulare e nell'ottimizzare la forma e le dimensioni della pipetta. Il secondo accorgimento, realizzato solo alcuni anni dopo le prime misurazioni, fu scoperto per caso. Esso consiste nel praticare una leggera aspirazione attraverso la pipetta: in questo modo la resistenza della saldatura sale a più di un miliardo di ohm, il che rappresenta un miglioramento di diversi ordini di grandezza rispetto alle prime prove. 433
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
La tecnica del patch clamp (illustrata alla fig. 12)_ rese possibili registrazioni elettriche da piccole porzioni di membrana (dell'ordine del J..Lm2 ) che evidenziano l'attività di un singolo canale. Questi dati furono la prima conferma diretta dell'ipotesi che le correnti ioniche macroscopiche, ottenute con le classiche tecniche elettrofisiologiche, non sono altro che la somma di correnti elementari che attraversano centinaia di migliaia di canali caratterizzati da uno stato « aperto » e da uno « chiuso ». Il numero medio di canali aperti e il tempo di persistenza in tale stato dipendono dal potenziale e determinano la non linearità del comportamento elettrico delle membrane eccitabili. La tecnica messa a punto da Neher e Sackmann ha portato a risultati assolutamente imprevisti. Essa ha infatti permesso di approfondire su basi molecolari la conoscenza del processo di eccitabilità e di trasmissione del segnale nervoso. Diversi canali ionici sono stati isolati e, grazie alla tecnica del DNA ricombinante si conosce la sequenza degli aminoacidi che li costituiscono. Inoltre, come è stato già accennato nei capitoli precedenti, iniettando la molecola di RNA complementare in uova di anfibi, questi canali sono stati espressi nella membrana di queste uova (si veda, in particolare, il par. r). Poiché le dimensioni di questo preparato biologico sono dell'ordine del millimetro, risulta particolarmente agevole studiarne l'attività elettrica con la tecnica del patch clamp, anche nei casi in cui sequenze particolari di aminoacidi siano state modificate. Attraverso queste modificazioni puntuali e selettive si intende arrivare a determinare quali siano gli aminoacidi o i gruppi di aminoacidi responsabili delle caratteristiche più interessanti dei canali delle membrane eccitabili, vale a dire la selettività e la sensibilità al campo elettrico. La tecnica del patch clamp ha portato a due scoperte fondamentali per la comprensione dei segnali cellulari. La prima ha rivelato che nelle membrane non vi sono solo il canale al sodio e il canale al potassio, le cui caratteristiche sono quelle descritte dalla teoria di Hodgkin e Huxley, ma esistono intere famiglie di canali al sodio e al potassio che hanno comportamenti elettrici tra loro diversi. Si sono inoltre trovati canali al calcio, canali al cloro e canali regolati, oltre che dal potenziale elettrico, anche dalla concentrazione di altri ioni. La fenomenologia è, insomma, ricchissima, e un nuovo e complesso mondo si è aperto nella ricerca in questo settore. Grazie alla seconda scoperta sappiamo che non solo le cellule del sistema nervoso, ma tutte le cellule possiedono canali ionici in una rete complessa di interazioni reciproche che comporta circuiti di retroazione, sinergismi e la presenza di secondi messaggeri (molecole capaci di veicolare segnali dalla superficie delle cellule alloro interno). Un esempio tipico di secondo messaggero è lo ione calcio: nei neuroni un elevato numero di canali al potassio è modulato non solo dal potenziale, ma anche dalla concentrazione degli ioni calcio liberi. A basse concentrazioni di calcio intracellulare, occorre un valore elevato del potenziale transmembrana perché i canali si aprano, mentre, a concentrazioni elevate, sono sufficienti valori molto bassi di tale potenziale per provocare l'apertura. 434
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
L'utilizzo di questa metodologia ha fornito importanti contributi nel campo farmacologico. Molte patologie nei più svariati settori, dal campo metabolico a quello cardiaco, sono infatti legate a un funzionamento abnorme dei canali ionici. Lo studio comparativo dell'attività dei canali in tessuti normali e patologici ha permesso di individuare la natura di alcune malattie e di eseguire ricerche mirate alla sintesi di farmaci specifici, capaci di modulare l'attività stessa dei canali. VIII
· PROPAGAZIONE
E
TRASMISSIONE
DEL
SEGNALE
NERVOSO
Abbiamo visto come uno stimolo esterno possa provocare una depolarizzazione del potenziale di membrana e come la depolarizzazione induca a sua volta una modulazione della permeabilità ionica e, quindi, la generazione di un impulso nervoso. La formazione del potenziale d'azione in un particolare punto dell'assone, detto monticolo assonico (vedi fig. n), pone immediatamente la domanda di come e con quale velocità si propaghi l'impulso nervoso. Le prime misurazioni sulla velocità di propagazione del potenziale d'azione nel nervo di rana risalgono ai famosi esperimenti di H.L. von Helmholtz, eseguiti attorno alla metà del secolo scorso. In quegli esperimenti il nervo sciatico della rana veniva stimolato a due diverse distanze dalla giunzione neuromuscolare: dividendo la distanza fra questi due punti per la differenza tra i due intervalli di tempo intercorrenti tra la stimolazione e la contrazione muscolare si otteneva una valutazione della velocità di propagazione dell'impulso nervoso. Il valore così determinato risultava dell'ordine di qualche decina di metri al secondo. Da tale esperimento Helmholtz concluse che l'impulso nervoso è un fenomeno ben più complesso del flusso longitudinale di corrente all'interno della fibra nervosa e che, pertanto, non vi è analogia col flusso di corrente elettrica in un filo di rame. Oggi si sa che la valutazione effettuata da Helmholtz è corretta, infatti la velocità di propagazione, che dipende dal diametro della fibra nervosa, varia da qualche frazione di metro al secondo a qualche decina di metri al secondo. Qual è dunque il meccanismo di propagazione? Furono sempre gli esperimenti condotti intorno agli anni cinquanta, in particolare da Hodgkin, Huxley e Katz, a chiarire questo punto. Il potenziale si propaga per via passiva (elettrotonica) come in un cavo coassiale e le correnti associate si comportano come stimoli al di sopra della soglia di eccitabilità per la porzione di membrana a valle (la membrana a monte non è eccitabile, poiché è nel periodo di refrattarietà). Si genera in questo modo un potenziale d'azione nella nuova porzione di membrana (come mostra la fig. 13) e il processo si ripete fino alla zona terminale della fibra nervosa, dove sono localizzate le sinapsi. Nelle fibre nervose mielinate (ossia ricoperte da una guaina isolante detta mielina) si ha la cosiddetta conduzione saltatoria: le correnti locali, generate da un impulso nervoso, si chiudono nei nodi di Ranvier (si vedano le figg. rr e r4JZ), che 435
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
<;;~~~~~~~:::!\:\ Direzione di propagazione Fig. 13. Le correnti locali responsabili della propagazione del potenziale d'azione.
corrispondono alle zone non mielinate della fibra nervosa, e costituiscono lo stimolo per l'eccitazione della porzione a valle. La velocità di conduzione aumenta coll' aumentare del diametro della fibra e del potere isolante della membrana (funzione, quest'ultima, svolta dalla guaina mielinica). La conduzione saltatoria è dunque la via scelta dal processo evolutivo per aumentare la velocità di propagazione degli stimoli senza che il diametro delle fibre nervose stesse debba aumentare poiché, in questo modo, le strutture nervose complesse, e in particolare il cervello, assumerebbero dimensioni esorbitanti. Come si trasmette il potenziale d'azione da una fibra nervosa all'altra? Gli impulsi nervosi sono trasmessi da un neurone ad altre cellule in giunzioni specializzate, chiamate sinapsi, con un meccanismo illustrato schematicamente alla fig. 14. Le sinapsi si dividono in sinapsi elettriche e sinapsi chimiche. Nelle sinapsi elettriche gli ioni passano dalla cellula presinaptica a quella postsinaptica attraverso particolari giunzioni dette giunzioni serrate (in inglese gap junctions) e il potenziale d'azione si genera nella cellula postsinaptica con un piccolissimo ritardo temporale. Le sinapsi chimiche sono più diffuse e mostrano un comportamento più complesso la cui comprensione in termini molecolari risale agli ultimi vent'anni. Già nel 1952 Fatt e Katz avevano osservato segnali elettrici costituiti da depolarizzazioni spontanee piccolissime, con ordini di grandezza inferiori a r millivolt, nelle vicinanze della giunzione neuromuscolare della rana (cioè di quella sinapsi che si trova fra un motoneurone e una fibra muscolare, denominata anche placca motoria: si veda la fig. ne). Poiché questi potenziali riproducono, sia pure su scala ridotta, la forma, l' andamento temporale e la sensibilità ai farmaci del potenziale della placca motoria, essi
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
vennero denominati potenziali di placca in miniatura. Questi studiosi osservarono inoltre che, aumentando progressivamente la concentrazione del magnesio (o diminuendo quella di calcio) nel mezzo extracellulare, le risposte postsinaptiche a uno stimolo presinaptico venivano ridotte fino all'ampiezza dei potenziali spontanei in miniatura, e che, in altri casi, la risposta a uno stimolo era un multiplo intero dei potenziali in miniatura. Abbiamo già ricordato come l'analisi statistica dei potenziali in miniatura, effettuata nel 1972 da Katz e Miledi, portasse alla conclusione che tali segnali sinaptici fossero di fatto dello stesso ordine di grandezza dei segnali elettrici associati all'apertura dei canali ionici in membrane artificiali. La trasmissione di un segnale elettrico in una sinapsi chimica deve essere dunque collegata all'apertura di canali ionici. Ma quali sono, in termini molecolari, le modalità di questo evento? La risposta a questa domanda è nuovamente un grande successo degli ultimi vent'anni di ricerca nel settore biochimico e biofisico. Le terminazioni sinaptiche contengono vescicole nel cui interno sono localizzate migliaia di molecole di neurotrasmettitore. Queste vescicole possono casualmente fondersi con la membrana presinaptica dando luogo a un processo di esocitosi. n neurotrasmettitore così rilasciato si lega al suo recettore specifico (che è una proteina integrale di membrana costituente un canale ionico) e provoca un cambiamento di struttura che, a sua volta, determina una variazione di permeabilità. I potenziali in miniatura, dunque, altro non sono se non segnali elettrici legati a questo rilascio casuale. Quando nella terminazione nervosa arriva un potenziale d'azione, quest'ultimo induce l'apertura di canali al calcio sensibili al potenziale. Vi sarà allora un ingresso, nella zona intracellulare, di ioni calcio, in quanto questi sono presenti in concentrazione molto superiore nel fluido extracellulare rispetto a quello intracellulare. L'aumento intracellulare del calcio favorisce il processo di fusione che non sarà più un evento casuale legato a una singola vescicola, ma un processo cooperativo di migliaia di vescicole. Il neurotrasmetittore, rilasciato in quantità massicce, provocherà, legandosi al suo recettore specifico, una variazione di permeabilità ionica sufficiente a depolarizzare la membrana e a generare un nuovo potenziale d'azione nella cellula postsinaptica. Poiché queste sinapsi danno luogo alla propagazione dello stimolo nervoso in una nuova fibra, esse vengono dette eccitatorie. Tipiche sinapsi eccitatorie sono quelle delle giunzioni neuromuscolari, in cui il neurotrasmettitore specifico è l'acetilcolina. L'azione di questo neurotrasmetittore e del corrispondente recettore è stata oggetto di ampi studi sia in situ, sia su sistemi ricostituiti (vale a dire in doppi strati lipidici artificiali o in liposomi in cui veniva inserito tale recettore). Questi studi hanno mostrato come il legame dell'acetilcolina col suo recettore specifico induca un aumento della permeabilità sia al Na+, sia al K+, con una conseguente depolarizzazione della membrana stessa. Il processo è dunque chiarito in chiave molecolare; la modulazione di conduttanza, in questo caso, non è legata all'azione diretta 437
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
di un campo elettrico, ma alla variazione conformazionale indotta dall'interazione del neurotrasmettitore col suo recettore specifico. La complessità della rete neuronale richiede che vi siano, oltre alle sinapsi eccitatorie, anche sinapsi di tipo inibitorio, in grado cioè di ostacolare la propagazione di un impulso nervoso. In queste ultime il rilascio del neurotrasmettitore provoca una iperpolarizzazione della membrana postsinaptica (vale a dire il potenziale diventa più negativo), rendendo temporaneamente più difficile la generazione di un potenziale d'azione. Un neurotrasmettitore tipico delle sinapsi inibitorie è il GABA (acido gammaaminobutirrico). La sua interazione col recettore specifico provoca un aumento della permeabilità al cloro e, di conseguenza, una iperpolarizzazione della membrana postsinaptica. In alcune cellule postsinaptiche i recettori di alcuni composti modulano l'attività di un enzima. Si ritiene che la risposta elettrica di queste cellule sia causata dalla fosforilazione di canali al sodio o al calcio dovuta a una serie di reazioni innescate dal primo enzima. Ricordiamo che la fosforilazione corrisponde all'instaurarsi di un legame chimico fra la proteina che forma il canale e un gruppo fosforico. n cambiamento conformazionale associato a questo processo induce l'aumento di permeabilità ionica che causa la generazione dell'impulso elettrico nella cellula postsinaptica. Molti composti rilasciati dai neuroni sono ormoni che influenzano sia le cellule di secrezione sia i neuroni adiacenti. Recentemente si è trovato che piccoli peptidi quali le endorfine e le encefaline sono in grado di agire come ormoni o come neurotrasmettitori in particolari sinapsi del cervello. Questa scoperta mette in luce, in modo evidente, la base biochimica delle interazioni esistenti fra sistema ormonale e sistema nervoso. Nel sistema nervoso centrale molti neuroni debbono integrare stimoli inibitori ed eccitatori da decine, centinaia o anche migliaia di altri neuroni. A seconda della grandezza e della durata temporale di questi stimoli potrà essere raggiunta la soglia di eccitazione nel monticolo assonico (vedi fig. 14) e ciò determinerà l'eventuale conduzione della fibra nervosa. Quali meccanismi elementari vengono impiegati dal cervello per elaborare l'informazione? La risposta a questa domanda è tuttora aperta. In effetti le cellule nervose presentano svariate forme di elaborazione dell'informazione: la membrana neuronale può variare le proprie caratteristiche elettriche per adattarsi agli stimoli esterni, mentre si sono trovati neuroni che non generano i tipici potenziali d'azione. La complessità dei meccanismi di elaborazione dell'informazione che agiscono tra le cellule rende questo settore della ricerca biofisica una sfida ancora aperta e affascinante. IX ·
PROCESSI
DI
FOTOTRASDUZIONE
Il sistema nervoso riceve gli impulsi da un gran numero di recettori sensoriali: i recettori degli odori nelle cilia del naso, i recettori del gusto nella lingua, i recettori del tatto nella pelle e i recettori della luce nell'occhio. Il segnale dovuto allo
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
stimolo esterno è un potenziale graduato che si trasformerà, nel monticolo assonico, in un potenziale d'azione del tipo «tutto-o-nulla», come illustrato nella fig. 14b. Dei diversi sistemi recettoriali quello in cui vi è stato negli ultimi decenni un più rapido avanzamento nella comprensione a livello molecolare è il processo di fototrasduzione legato al sistema visivo. Il processo della visione si inizia con la trasformazione di energia luminosa in segnali elettrici che il cervello è in grado di analizzare. Le cellule fotorecettrici sono deputate a questo processo di trasduzione. L'immagine del mondo esterno arriva alla retina attraverso il sistema ottico costituito dalla cornea e dal cristallino. I fotorecettori, presenti sulla superficie posteriore della retina, trasformano la luce assorbita in segnali elettrici i quali vengono elaborati da altre cellule della retina stessa prima di essere trasmessi al cervello mediante il nervo ottico. Un complesso sistema di sinapsi, che si trova nel cervello, permette infine al sistema visivo di ottenere informazioni sulla forma, il colore e il movimento nel mondo circostante. La retina dei vertebrati contiene due tipi di fotorecettori: i coni e i bastoncelli, che prendono il nome dalle loro rispettive forme. Essi sono costituiti da un segmento esterno e un segmento interno. Il segmento esterno del bastoncello è cilindrico, mentre quello del cono è appuntito. Entrambi i tipi di segmento sono formati da lamelle appiattite, rese fotosensibili dalle molecole di fotopigmento in esse contenute. Nei coni queste lamelle sono formate da un'unica lamina ripiegata, mentre nei bastoncelli sono costituite da dischi impilati l'uno sull'altro (la fig. 15 confronta la rappresentazione schematica e la microscopia elettronica di un bastoncello). I fotopigmenti contenuti in queste strutture sono diversi nei coni e nei bastoncelli, e da questa differenza deriva il diverso ruolo funzionale nei due sistemi visivi. I bastoncelli contengono il pigmento rosso rodopsina, mentre i coni contengono tre tipi diversi di fotopigmento e sono responsabili della visione dei colori. I segnali elettrici originati da ciascuna classe di coni dipendono dal numero di fotoni (o quanti di luce, corrispondenti a pacchetti discreti di energia luminosa) che eccitano il fotopigmento. Il problema della visione dei colori risale ai tempi di Newton; allora appariva contraddittorio il fatto che la rifrazione della luce dal prisma desse luogo a una gamma infinita di colori, mentre i pittori erano in grado di ottenere tutte le gradazioni partendo da tre soli colori fondamentali. All'inizio del 18oo Th. Young (1773-1829) formulò la teoria tricromatica, secondo la quale l'occhio umano è selettivo a tre colori primari. In base alle nuove conoscenze acquisite nello studio della fotochimka dei pigmenti visivi, è ora possibile formulare la teoria tricromatica di Young in base ai pigmenti presenti nei coni. Misurazioni effettuate sulla sensibilità spettrale di singole cellule di scimmie, che si ritiene abbiano fotorecettori simili a quelli umani, hanno dato luogo a picchi di assorbimento i cui massimi corrispondono ai colori blu, verde e rosso. Ciascun tipo di cono è esclusivamente sensibile alla radiazione luminosa specifica della 439
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
lunghezza d'onda che è in grado di assorbire. È stato infatti calcolato che un pigmento della regione del rosso risponde al blu o al verde, in misura minore di un caso su centomila. Il segnale nervoso tipico di ogni classe di recettori fornirà, ai centri che elaborano i segnali in arrivo dal sistema visivo, l'informazione sufficiente per identificare la lunghezza d'onda caratteristica della radiazione e, quindi, consentire la visione dei colori. Per contro, quando il processo visivo è mediato dai bastoncelli, tutti gli oggetti appaiono privi di colore. Nell'occhio umano vi sono circa 3 milioni di coni e roo milioni di bastoncelli. I coni consentono la visione del colore in condizione di luce intensa e sono dunque attivi alla luce del giorno. I bastoncelli sono stimolati da una luce debole e su una vasta estensione di lunghezze d'onde. Essi sono tanto sensibili da soprasaturarsi alla luce diurna e diventare, di conseguenza, totalmente inattivi. L'effetto di completa cecità che si registra passando da un luogo molto illuminato a uno poco illuminato (per esempio all'ingresso di una galleria) è proprio dovuto al fatto che i coni diventano inattivi mentre i bastoncelli si attivano con una certa lentezza. Solo quando questi ultimi hanno assunto il ruolo primario nel processo, gli oggetti appaiono nuovamente visibili. Un esperimento estremamente interessante ha dimostrato che in opportune condizioni è sufficiente che i bastoncelli assorbano un singolo fotone, perché vi sia una risposta elettrica misurabile. Come avviene dunque la trasduzione da un segnale luminoso a un segnale elettrico? Per poter rispondere a questa domanda occorre dapprima soffermarsi sugli aspetti elettrofisiologici relativi al comportamento dei fotorecettori. In condizioni di riposo la membrana cellulare è caratterizzata da un potenziale di -40 millivolt. Questo potenziale è dovuto sia alla differenza di concentrazione fra interno ed esterno delle cellule, sia alla permeabilità della membrana agli ioni sodio e potassio. Infatti, contrariamente a quanto succede nella maggioranza delle membrane neuronali, i canali al sodio nel segmento esterno dei fotorecettori sono aperti e vi è pertanto un flusso di ioni sodio dall'esterno verso l'interno. Questa corrente, che è controbilanciata dal flusso di ioni potassio verso l'esterno che si verifica nel resto della cellula, è chiamata corrente al buio. Tale stato è del tutto insolito in una membrana eccitabile: abbiamo infatti visto in precedenza che lo stato di riposo corrisponde a una situazione in cui la maggior parte dei canali al sodio si trova nella configurazione chiusa. Ovviamente, nonostante questo flusso ionico, le concentrazioni interne delle cellule fotorecettrici rimangono costanti per l'azione della pompa sodio-potassio di cui abbiamo parlato in precedenza. Quando un cono (o un bastoncello) assorbe luce, il flusso di corrente portata dagli ioni sodio si blocca determinando una iperpolarizzazione della membrana. Questa iperpolarizzazione può essere messa in evidenza sperimentalmente inserendo un microelettrodo in uno dei coni o dei bastoncelli relativamente grandi che si trovano nella retina di alcuni pesci, oppure eseguendo misurazioni con la tecnica del patch clamp su singoli bastoncelli isolati. I risultati hanno rivelato che il potenziale di 440
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
depolarizzazione dipende dall'intensità della luce eccitante e arriva fino a un valore di circa -30 millivolt (corrispondente a un potenziale di membrana di circa - 70 millivolt). Questo segnale elettrico, trasmesso attraverso sinapsi alle altre cellule visive e quindi al nervo ottico, completa il processo di fototrasduzione. Quali sono gli eventi molecolari responsabili della chiusura dei canali al sodio? L'evento fotochimico primario è stato messo in evidenza alla fine degli anni cinquanta da George Wald (n. 1906) e i suoi collaboratori, i quali scoprirono che i pigmenti visivi dei coni e dei bastoncelli contengono un componente, il retinale, capace di assorbire la luce. Quando un fotone è assorbito dal fotopigmento si ha un cambiamento conformazionale (isomerizazzione) del retinale. Il retinale è legato a una parte proteica ed è quest'ultima a determinare la lunghezza d'onda di assorbimento. Nei bastoncelli il fotopigmento è la rodopsina, mentre nei coni la parte proteica varia da pigmento a pigmento. Il meccanismo di fototrasduzione è del tutto simile nei coni e nei bastoncelli (per semplicità di esposizione, ci riferiremo a questa ultima struttura). Attraverso quale meccanismo il processo di isomerizzazione, che avviene nei dischi, porta alla chiusura dei canali al sodio nella membrana del segmento esterno? Poiché queste strutture sono topologicamente disgiunte e lontane fra di loro, è chiaro che occorre un messaggero che trasformi il cambiamento conformazionale in una variazione di conduttanza. Per molti anni si pensò che questo messaggero fosse il calcio. Nonostante le numerose e importanti funzioni svolte da questo ione, l'ipotesi si rivelò errata. Una serie molto recente di lavori ha dimostrato come il cambiamento conformazionale della rodopsina attivi una cascata enzimatica; la rodopsina stessa, quando il retinale stimolato dalla luce cambia conformazione, ha uno stato enzimaticamente attivo. In questo stato essa attiva un secondo enzima (la trasducina) il quale, a sua volta, re~de attivo un terzo enzima; quest'ultimo rompe la forma anulare di un'importante molecola: il guanosinmonofosfato ciclico (cGMP). Tale reazione, detta di idrolisi, trasforma la molecola ciclica in una struttura lineare. È stato dimostrato che questa molecola, nella forma ciclica, ha un ruolo importante nel mantenere aperti i canali al sodio. Ulteriori conferme sono derivate da esperimenti di patch clamp su di un singolo fotorecettore isolato, che hanno dimostrato come immergendo un lembo di membrana strappata dal segmento esterno di un bastoncello e misurandone la permeabilità al sodio, questa aumenta grandemente quando alla soluzione viene aggiunto del cGMP. Riassumendo si può affermare che il processo di fototrasduzione è prodotto da numerosi eventi. La cattura di un fotone da parte del fotopigmento induce, attraverso una serie di reazioni enzimatiche, l'idrolisi della molecola di cGMP e, quindi, la diminuzione della sua concentrazione. Quando la concentrazione del cGMP diminuisce, i canali al sodio si chiudono e danno luogo all'iperpolarizzazione della membrana. A differenza dei processi sinora descritti, non è una depolarizzazione di membrana, bensì una iperpolarizzazione a generare il segnale elettrico. 441
www.scribd.com/Baruhk
Scienze della vita: alle frontiere fra fisica e chimica
Le sofisticate tecniche di misura elettrofisiologica introdotte col patch clamp hanno permesso le registrazioni delle fotocorrenti indotte da un singolo fotone in coni e bastoncelli. Questi esperimenti hanno consentito di valutare in r picoampère (ro- 12 ampère) la corrente dovuta all'attivazione di una singola molecola di rodopsina nei bastoncelli. Nei coni questa corrente è molto minore e non è direttamente misurabile a causa del rapporto troppo sfavorevole tra segnale e rumore. Una valutazione indiretta indica, tuttavia, che un solo fotone, assorbito da un cono, produce una corrente roo volte inferiore. La differenza di risposta fra le due diverse cellule fotorecettrici ci permette di capire su basi fisiche la ragione del diverso funzionamento delle due classi di cellule fotorecettrici alla luce intensa e nella penombra.
442
www.scribd.com/Baruhk
CAPITOLO
DODICESIMO
Le scienze della Terra DI FELICE IPPOLITO
I
• PREMESSA
Il secolo xx può essere considerato, dal punto di vista scientifico, un secolo eccezionale, paragonabile forse solo al XVII per l'importanza delle nuove concezioni. La fisica e la chimica, che già sul finire dell'Ottocento avevano mostrato uno sviluppo grandioso con la scoperta della radioattività, hanno avuto, come è noto, la loro « rivoluzione » nei primi decenni del secolo: una rivoluzione che non può certo dirsi conclusa con la costruzione e l'uso infame delle bombe nucleari al termine del secondo conflitto mondiale. Lo sviluppo della biologia si è realizzato, con un ritardo di una trentina di anni, grazie agli straordinari progressi di una nuova scienza - la genetica - e alla fondamentale scoperta del DNA. È stata quindi la volta delle scienze della Terra - geologia e geofisica - con le sconvolgenti novità degli anni cinquanta e sessanta, precedute solo dalla geniale intuizione di Wegener nel primo decennio del secolo. La teoria della tettonica delle placche, formulata appunto negli anni sessanta, segna una svolta decisiva nel campo delle scienze geologiche, una svolta che qualcuno non ha esitato· a paragonare alla rivoluzione copernicana che quattro secoli prima aveva interessato le scienze astronomiche. Questa teoria propone un modello d'interpretazione globale della dinamica terrestre, che è prevalentemente frutto di importanti scoperte nella ricerca geofisica (sismologia, gravimetria, paleomagnetismo) e comporta trasformazioni profonde in tutte le scienze della Terra. Alla luce di tale modello, infatti, trovano una spiegazione unitaria i numerosi fenomeni di instabilità della crosta terrestre osservabili in superficie (catene montuose, terremoti, vulcani; vedi fig. I). II
· TEORIE
FISSISTE
E
MOBILISTE:
LA
DERIVA
DEI
CONTINENTI
Dall'antichità classica fino al Rinascimento e oltre, erano stati ben pochi i progressi delle scienze della Terra nel campo dell'orogenesi. Bisogna attendere i secoli XVIII e XIX per registrare significativi passi in avanti in quelle ricerche stratigrafiche e paleontologiche che posero, in poco più di cento anni, i fondamenti della moderna geologia. Si trattava però di una geologia per lo più descrittiva e cronologica, non ancora dinamica. Il problema dell'origine delle catene montuose, che pur tanto 443
www.scribd.com/Baruhk
Le scienze della Terra
fascino esercitava, non era affrontato su basi critiche; l'idea - avanzata per la prima volta sul finire del XVIII secolo e oggi non più accettata - di una crosta terrestre che si corruga e si ripiega per adattarsi a un corpo centrale che, raffreddandosi, si contrae trovava ancora alla fine del secolo scorso il suo maggiore assertore nel geologo austriaco E. Suess (1831-1914), che vi dedicò una famosa trattazione nella sua grandiosa sintesi La /accia della Terra, pubblicata in più volumi tra il 188o e il 1890. L'interpretazione dei più vistosi fenomeni geologici - dalla formazione delle catene montuose ai vulcani e ai terremoti - poneva numerosi interrogativi sulla loro effettiva dinamica che portarono alla formulazione di varie teorie e modelli, essenzialmente riconducibili a due diverse scuole di pensiero: da una parte quella che interpretava l'evoluzione terrestre come il risultato di movimenti orizzontali (teorie « mobiliste »), dall'altra l'indirizzo di pensiero che valorizzava i movimenti verticali come «motore» della dinamica terrestre (teorie « fissiste »). n primo filone di pensiero comprende la teoria della deriva dei continenti di A. L. Wegener (1880-1930) e culmina nella formulazione del modello della tettonica delle placche. Nell'ambito delle teorie fissiste occupano invece un posto di rilievo R.W. Van Bemmelen (n. 1904) con la sua teoria dell'undazione, V.V. Belousov (n. 1907) con il diapirismo e S.W. Carey con l'espansione del globo terrestre. Le teorie mobiliste si sono sviluppate nel corso di questo secolo, anche se il concetto di base era già presente in alcuni lavori dell'8oo e, addirittura, in Francesco Bacone che, all'inizio del XVII secolo, notava sulle carte geografiche dell'epoca la corrispondenza e complementarietà morfologica delle coste che si affacciano sulle opposte sponde dell'oceano Atlantico. Queste teorie sono dominate dall'idea che la distribuzione dei più vistosi fenomeni geologici secondo fasce ben determinate non sia casuale, ma costituisca piuttosto il risultato dei movimenti di grandi blocchi crostali parallelamente alla superficie terrestre. L'origine scientifica di questo indirizzo di pensiero è rappresentata dall'opera del geofisico tedesco Alfred Lothar Wegener, La formazione dei continenti e degli oceani (1915). n lavoro di Wegener veniva pubblicato in un periodo in cui, nell'interpretazione della dinamica terrestre, predominavano modelli fissisti basati sull'idea della contrazione per raffreddamento della Terra. In questa prospettiva, secondo Wegener, non trovavano però adeguata spiegazione alcuni fenomeni, come per esempio la distribuzione delle catene montuose secondo fasce allungate e ristrette. Wegener assunse come punto di partenza la già citata corrispondenza tra gli andamenti delle coste che si affacciano su sponde opposte dell'oceano Atlantico. Considerando, per esempio, la parte meridionale di questo oceano e immaginando il continente sudamericano ruotato di circa 45° si osserva quanto segue: l'angolo retto del capo San Rocco va a incunearsi nel golfo di Guinea, la costa rettilinea della Guiana si oppone alla Costa d'Oro e alla Costa d'Avorio, mentre le coste del Brasile, dell'Uruguay e dell'Argentina coincidono, con promontori e insenature, con la costa del Congo, dell'Angola e dell' Mrica meridionale. La struttura geologica dei due continenti mostra inoltre una notevole corrispondenza: rocce 444
www.scribd.com/Baruhk
Le scienze della Terra
Fig. 2. Particolari formazioni rocciose che, accostate, formano fasce continue dal Sudamerica all'Africa, forniscono l'evidenza geologica che i due continenti costituivano un'unica massa. Le zone in grigio scuro rappresentano gli antichi cratoni; le zone in grigio chiaro sono aree con rocce più giovani. (lllustrazione da <
della medesima età e facies si fronteggiano; catene montuose continuano da un continente all'altro; perfino il limite di habitat di un rettile (il mesosauro) delimita una zona ben precisa che occupa parte dell'Mrica e dell'America meridionale. La teoria di Wegener si basa su dati di tipo geofisico, geologico, paleontologico e paleoclimatico. I dati geofisici riguardano essenzialmente l'applicazione della teoria dell'isostasia ai blocchi continentali e la possibilità che questi ultimi galleggino sul substrato più denso a comportamento fluido e siano interessati oltre che da movimenti verticali, anche da movimenti paralleli alla superficie terrestre. Wegener notò come la distribuzione statistica dei rilievi sulla superficie terrestre non fosse casuale, bensì mostrasse un andamento della topografia con due concentrazioni preferenziali: una prossima al livello del mare, identificabile con le piattaforme continentali; l'altra, meno netta, in corrispondenza delle piattaforme oceaniche. Questa osservazione forniva un ulteriore argomento a favore della sua ipotesi; infatti, se le caratteristiche topografiche fossero state il risultato di sollevamenti e subsidenze casuali, la loro distribuzione sarebbe stata altrettanto casuale. Tra gli argomenti di tipo geologico e paleontologico Wegener prendeva soprattutto in considerazione, come già si è detto a proposito dell' Mrica e dell'America meridionale, la continuità di formazioni rocciose della medesima età e facies e di particolari associazioni faunistiche e floristiche che, accostate, formano fasce continue. Tali fenomeni sono documentabili in un gran numero di esempi: l'America meridionale e l'Africa (vedi fig. 2), la costa orientale del Nordamerica che si adatta bene alla costa del445
www.scribd.com/Baruhk
Le scienze della Terra
l'Mrica settentrionale e della penisola Iberica, il cnneo della Groenlandia che si incastra perfettamente tra il Labrador e l'Islanda. Le prove di tipo paleoclimatico si basano sulla cpnoscenza di formazioni sedimentarie rivelatrici di particolari condizioni climatiche, come per esempio le tilliti (sedimenti di ambiente glaciale e periglaciale), la cui distribuzione nel Fermo-Carbonifero fa supporre la presenza di un unico continente nell'emisfero australe (la terra di Gondwana) dove avrebbe avuto luogo una glaciazione. Secondo la teoria della deriva, i blocchi continentali di materiali sialici (rocce ignee e metamorfiche di tipo granitico) andrebbero lentamente alla deriva, galleggiando sul sima, lo strato del mantello costituito da rocce a comportamento più plastico (rocce di tipo basaltico, gabbrico o peridotitico). La presenza di ostacoli a questo movimento provocherebbe forti resistenze in corrispondenza del fronte di avanzamento, con formazione di ripiegamenti e corrugamenti che darebbero origine alle catene montuose. motore di tali movimenti risiederebbe in spinte tangenziali alla superficie terrestre che avrebbero smembrato l'unico supercontinente iniziale: la Pangea. Le forze agenti sarebbero dovute al ritardo inerziale del sia! rispetto al sima (spiegabile con il moto da ovest verso est della Terra) e alla forza centrifuga provocata dall'allontanamento dai poli. Secondo questa teoria, alla fine del Carbonifero (circa 300 milioni di anni fa) sarebbe esistito un unico continente costituito dall'America settentrionale unita all'Eurasia, dall'America meridionale unita ad Mrica, Australia e Antartide nell'emisfero meridionale, e dalla penisola indiana posta tra Mrica e Australia. n supercontinente Pangea si sarebbe poi smembrato nel corso del Giurassico e del Terziario per opera delle forze agenti parallelamente alla superficie terrestre. In particolare, l'Mrica si sarebbe separata dal continente sudamericano nel corso del Cretacico, rendendo così possibile la formazione dell'oceano Atlantico. La nascita delle catene montuose (orogenesi) avrebbe avuto luogo, secondo Wegener, in corrispondenza del fronte di un continente in movimento, a causa delle resistenze opposte dalla crosta oceanica al moto di deriva dei continenti. Un· tipico esempio sarebbe fornito dal corrugamento della catena himalayana nella fascia di collisione tra India e Asia. La teoria di Wegener provocò notevoli discussioni e dispute tra gli scienziati dell'epoca, soprattutto per quel che riguardava il « motore » del movimento di deriva dei continenti. A questo proposito si deve ricordare lo studio dell'inglese A. Holmes (18901965), uno dei più famosi geologi inglesi dell'epoca, il quale aveva ipotizzato l'esistenza di correnti subcrostali elaborando un modello che si avvicinava ulteriormente a quella che in seguito sarebbe stata la tettonica delle placche. La teoria di Wegener venne accolta con favore dai geologi strutturali e, in particolare, dai rilevatori dell'arco alpino. geologo svizzero E. Argand (1879-1940), nella sua magistrale sintesi della geologia delle Alpi, ipotizzò nel 1930 l'azione di due grandi masse continentali distaccatesi dalla Pangea - Laurasia da nord e Gondwana da sud - che sarebbero entrate in collisione nel loro moto di fuga dai poli, provocando in tal modo la formazione della catena alpina. L'ipotesi di Wegener è stata notevolmente ridimensionata nel tempo. L'unione dei continenti attuali in un unico blocco continentale risale a oltre 700 milioni
n
n
www.scribd.com/Baruhk
Le scienze della Terra
a
e
g
h
Tetide Gondwana
Fig. 3. Gli schemi rappresentano la configurazione assunta da continenti e oceani negli ultimi 700 milioni di anni: a) Precambriano superiore; b) Cambriano; c) Devoniano; d) Carbonifero superiore; e) Permiano superiore; /) inizio del Mesozoico; g) fine del Cretacico; h) attuale configurazione. (Illustrazioni da «Le Scienze>>, 1986.)
di anni fa; nelle varie ere geologiche si sono succedute diverse aperture di nuovi oceani e chiusure di bacini preesistenti per effetto del movimento relativo tra le diverse zolle con collisione e formazione di nuove catene montuose (caledonidi, ercinidi, uralidi e Himalaya come illustrano gli schemi di fig. 3). Altre teorie mobiliste vennero formulate sulla base della contrapposizione tra 447
www.scribd.com/Baruhk
Le scienze della Terra "'(\ONICA DI SCIVOLAMENTO EPIDER
~-·-"_«_·----~A
~G;:=-:;~1~
1.-l vJJ~~~----~:2~~:::---,
CROSTA
Fig. 4. Lo schema in alto, tratto da un'opera di RW. Van Bemmelen, rappresenta la tettogenesi gravitativa generalizzata. In basso è schematizzata la teoria di Haarmann (1930), in cui i flussi del sia! generano sollevamenti della crosta con formazione di pieghe e deformazioni nei depositi. (illustrazioni da «Le Scienze>>, 1982.)
forze perturbatrici connesse a celle convettive e a squilibri termici e forze equilibratrici, quali l'isostasia e la gravità. Queste teorie facevano intuitivamente appello ad alcuni principi che sarebbero poi stati alla base della successiva teoria della tettonica delle placche. Tra i vari modelli proposti, quello ipotizzato da A. Rittmann (1893-1980) è uno dei più completi; esso si fonda su una stretta correlazione tra i fenomeni orogenetici e la natura e l'origine dei magmi. In opposizione al pensiero mobilista, si svilupparono le teorie fissiste, secondo le quali il meccanismo motore della dinamica terrestre è da individuare prevalentemente in processi globali di contrazione del Pianeta per raffreddamento, di espansione dovuta a un aumento di volume della Terra o di fusione parziale di grandi porzioni di crosta. Un posto di primo piano tra gli scienziati che elaborarono teorie fissiste spetta all'olandese Van Bemmelen con la «teoria dell'undazione », derivata dalla «teoria del-
www.scribd.com/Baruhk
Le scienze della Terra
l'oscillazione» proposta dal tedesco E. Haarmann nel 1930. Secondo questa teoria, all'intemo della Terra si originano cicli convettivi di masse plastiche responsabili di movimenti verticali superficiali, denominati « undazioni », che provocherebbero una tettonica gravitativa con falde di ricoprimento (vedi fig. 4). Le undazioni erano classificate da Van Bemmelen in cinque tipi diversi, in funzione della profondità delle masse coinvolte nei cicli convettivi e, quindi, della scala dei fenomeni superficiali da esse determinati. Alla corrente fissista appartiene anche il modello proposto dal geologo russo Belousov, che interpreta l'orogenesi come il risultato di una serie di movimenti essenzialmente verticali (diapirismo). Confrontando i movimenti crostali verticali con il magmatismo e il metamorfismo regionali Belousov notava come le deformazioni a pieghe fossero un fenomeno a scala notevolmente minore, più limitato nel tempo e nettamente secondario. Egli riteneva inoltre possibile che i fenomeni compressivi evidenti all'interno delle geosinclinali fossero l'effetto deformativo di fenomeni gravitativi innescati dal diapirismo o dalla dilatazione di blocchi crostali sollevati. Come si vede, le teorie fissiste, non potendo negare l'evidenza di movimenti traslativi orizzontali, attribuiscono enorme importanza agli effetti della gravità, quali frane orogeniche in senso lato, denudazioni, frane sottomarine (M. Gignoux, r88r-1995). Nell'ambito delle teorie fissiste venne elaborato, in alternativa alla teoria di Wegener, il concetto di espansione terrestre, che interpreta lo smembramento della Pangea come l'effetto di un aumento del volume terrestre. Il principale sostenitore di questa teoria è Carey, che accetta l'ipotesi della espansione dei fondali oceanici, ma rifiuta alcuni aspetti basilari della tettonica delle placche, come l'affermazione del volume costante della Terra e l'interpretazione delle zone di subduzione. In corrispondenza delle fosse oceaniche, secondo questo modello, non si verificherebbe subduzione, né consumo di crosta, bensì un movimento diapirico verso l'alto. Il motore dell'espansione terrestre risiederebbe al di sotto del mantello e consisterebbe in una serie di variazioni di parametri geofisici, come per esempio la diminuzione della costante di gravità. Il modello di Carey rappresenta una delle ipotesi di interpretazione della dinamica terrestre alternative alla teoria della tettonica delle placche, pur non riuscendo a invalidare tale teoria. III
· L'ESPANSIONE
DEI
FONDI
OCEANICI
A partire dagli anni sessanta nuovi importanti elementi conoscitivi furono acquisiti dalle scienze della Terra: l'esatto riconoscimento dei fondali oceanici attraverso le prospezioni sismiche e le perforazioni profonde eseguite con il Deep Sea Drilling Project; 1 la misura delle variazioni del campo magnetico terrestre e la sco-
1 Si tratta di un progetto di perforazioni profonde sottomarine, iniziato come programma di ricerche americano con le campagne oceanografi-
che condotte dalla nave Glomar Challenger a partire dal 1968; prosegue dal 1975 come programma internazionale.
449
www.scribd.com/Baruhk
Le scienze della Terra
perta delle sue periodiche inversioni; una più dettagliata conoscenza della distribuzione dei terremoti e dell'ubicazione e profondità degli ipocentri; il rilevamento delle dorsali oceaniche; le datazioni radiometriche e lo studio dei complessi rapporti tra crosta e mantello e tra litosfera e astenosfera. L'insieme di tutti questi elementi rese possibile una visione globale della dinamica della litosfera e dello strato superiore del mantello terrestre, che ha trovato espressione completa nella teoria della tettonica delle placche. La ripresa economica nel secondo dopoguerra consentì anche un incremento delle attività di ricerca oceanografica, per le quali erano necessari un'organizzazione e mezzi particolarmente onerosi. Tali ricerche condussero a una serie di importanti scoperte in campo geologico e geofisico. In ambito geofisico, il notevole sviluppo delle metodologie di prospezione sismica portò a risultati tali da determinare un profondo mutamento nel campo dell'interpretazione stratigrafica, con ricadute notevoli nella ricerca e nella coltivazione di campi petroliferi prima sconosciuti. Tra le scoperte che maggiormente condizionarono lo sviluppo dei modelli di interpretazione della dinamica terrestre meritano di essere ricordate quelle relative all'estensione globale delle dorsali medio-oceaniche; alla presenza di grandi fratture che rigettano le dorsali medio-oceaniche (faglie trasformi); all'alto flusso di calore in corrispondenza degli assi delle dorsali oceaniche; alle anomalie magnetiche in corrispondenza dei fondi oceanici; alla differente composizione e densità delle rocce oceaniche rispetto a quelle continentali; ai sedimenti oceanici di giovane età dotati di deboli spessori. La morfologia dei fondi oceanici è caratterizzata dalla presenza di un sistema di dorsali, dette appunto medio-oceaniche, che si susseguono senza soluzione di continuità, con una elevazione sul fondo di 1-3 km e una larghezza di circa 1500 km (l'Islanda, per esempio, è costituita da una sezione emersa della dorsale medio-atlantica). La topografia delle dorsali risulta piuttosto accidentata; inoltre sono a volte presenti anche fosse mediane. In corrispondenza delle dorsali si riscontrano terremoti poco profondi, velocità sismiche non usuali, mancanza di coperture sedimentarie e un'elevata anomalia magnetica. In particolare, mentre gli altri fenomeni caratteristici si distribuiscono secondo una fascia centrata sulla dorsale, l'anomalia magnetica presenta un andamento nettamente localizzato in corrispondenza dell'asse della dorsale. Il sistema di dorsali è dislocato da importanti fratture tettoniche a rigetto orizzontale («faglie trasformi»), delle quali solo la parte centrale, compresa fra i due tronconi di dorsale rigettati, è attiva in quanto caratterizzata dalla presenza di terremoti poco profondi. Uno stadio fondamentale nell'evoluzione del pensiero che portò alla formulazione della tettonica delle placche è rappresentato dall'ipotesi dell'espansione dei fondi oceanici. Intorno al 1960 il geologo statunitense della Princeton University Harry H. Hess (1906-69) formulò tale ipotesi suggerendo che materiale proveniente dal mantello affiorasse in superficie, in corrispondenza dell'asse delle dorsali oceaniche, a causa delle 450
www.scribd.com/Baruhk
Le scienze della Terra
forti spinte generate dai moti convettivi presenti all'interno del mantello superiore. Secondo questa ipotesi le dorsali oceaniche rappresenterebbero la manifestazione superficiale dei moti convettivi del mantello. Il materiale basaltico emesso in corrispondenza degli assi delle dorsali subirebbe poi un'espansione laterale lungo i fondi oceanici. Una volta assunto che il volume della Terra non è in espansione, diventava necessario ammettere che la crosta si consumasse. La compensazione del materiale emesso poteva avvenire attraverso fenomeni di sovrapposizione o di sprofondamento nelle zone delle fosse oceaniche situate in corrispondenza dei margini continentali. I risultati di indagini geofisiche evidenziarono la presenza di forti anomalie geotermiche lungo gli assi delle dorsali, anch'esse collegate alle risalite di magma provocate dalle correnti convettive del mantello. La scoperta delle inversioni di polarità del campo magnetico terrestre registrate nelle rocce dei fondi oceanici e la caratteristica distribuzione delle anomalie magnetiche (vedi fig. 5) suggerirono ai due ricercatori dell'Università di Cambridge, F.J. Vine e D.H. Matthews (1963) la possibilità di un'importante verifica dell'ipotesi di Hess sull'espansione dei fondali oceanici. Scoperto che il campo magnetico terrestre aveva subito delle inversioni di polarità periodiche nei tempi geologici, essi ipotizzarono che, al momento della risalita magmatica dal mantello in corrispondenza delle dorsali oceaniche, le rocce fuse si magnetizzassero secondo la direzione del campo magnetico e in seguito si solidificassero in modo da registrare la polarità magnetica. Con il procedere dell'espansione del fondale oceanico e il verificarsi di periodiche inversioni del campo magnetico terrestre nel tempo, il magnetismo delle rocce avrebbe dato origine a fasce allungate parallele e simmetriche alle dorsali, in cui doveva essere possibile trovare anomalie magnetiche alternate, positive e negative, rispetto al campo magnetico attuale. L'ipotesi di Vine e Matthews venne verificata sperimentalmente da rilievi magnetometrici eseguiti dapprima a sud dell'Islanda e nei pressi della costa occidentale dell'America settentrionale, poi nell'oceano Pacifico meridionale, nell'Atlantico meridionale e nell'oceano Indiano. I rilievi magnetometrici furono correlati con i risultati di datazioni ottenute con metodi radioattivi su campioni di rocce dei fondali in modo da ricostruire l'andamento delle anomalie magnetiche per gli ultimi 3>5 milioni di anni. Il confronto tra questi dati e le distanze dall'asse di espansione permise di determinare le velocità di espansione, che risultarono variabili tra i 2 e i 5 cm/anno. L'ipotesi che la velocità di espansione dei fondi oceanici fosse abbastanza costante portò alla datazione delle anomalie magnetiche per tempi ben più lunghi dei J,5 milioni di anni basati sulle età radiometriche e rese possibile la costruzione delle scale di cronologia geomagnetica. Il magnetismo costituiva dunque la chiave d'interpretazione dell'espansione dei fondali oceanici e dei movimenti dei continenti. Nell'ambito di un vastissimo programma internazionale di ricerca, il JOIDES (joint Oceanographic Institutes Deep Earth Sampling), avviato alla fine degli anni sessanta, furono campionati, nel corso di numerose campagne oceanografiche, i fondali ocea451
www.scribd.com/Baruhk
o
o
10
20 500
30
40
1000
50
60
1500 70
80
1800 [___J
250
[___J
o
500
Gamma Età (milioni di anni)
300
Gamma Distanza (chilometri)
Atlantico meridionale
[___J
o
o
Gamma Distanza (chilometri)
Pacifico settentrionale
Distanza (chilometri) Pacifico antartico
Fig. 5. Le curve rappresentano l'andamento delle anomalie magnetiche registrate nei diversi oceani; esse rivelano, parallelamente alle dorsali oceaniche, la medesima successione di campi magnetici normali e inversi registrati dalle rocce emerse in corrispondenza delle dorsali. Per i tre oceani si nota come le anomalie e i corpi magnetici a esse riferiti (bande bianche e nere) presentino la stessa successione, ma diverse distanze in funzione delle differenti velocità di apertura dei bacini oceanici. Si registrano 171 inversioni di polarità magnetica in un arco di 76 milioni di anni. (illustrazione da <>, 1986.)
452
www.scribd.com/Baruhk
Le scienze della Terra
nici. I risultati ottenuti portarono ad affermare che l'età dei sedimenti aumentava allontanandosi dalle dorsali e, quindi, che le parti più lontane dalla dorsale di fondali oceanici dovevano avere un'età più antica. Inoltre, l'età dei sedimenti oceanici suggeriva un inizio dell'espansione oceanica tuttora in atto nel corso del Mesozoico; nessun campione dei fondali, infatti, risultò avere un'età precedente al Cretacico (circa 153 milioni di anni). IV · LA
TETTONICA
GLOBALE:
LA TETTONICA DELLE
PLACCHE
La formulazione del modello della tettonica delle placche e la pubblicazione dei lavori fondamentali su questa teoria risalgono agli anni sessanta. La teoria della tettonica delle placche è un modello della dinamica terrestre che interpreta le instabilità geologiche della crosta terrestre evidenti in superficie quali l'attività tettonica e sismica, l'attività vulcanica e l'orogenesi - come il risultato dell'interazione tra un certo numero di placche (o zolle) litosferiche rigide. Le aree di contatto tra le placche sono interessate da fenomeni di deformazione e sono accompagnate, a scala globale, da fasce di attività sismica (vedi fig. 6). La teoria ricomprende le ipotesi di deriva dei continenti e di espansione dei fondi oceanici in un unico modello dinamico globale della Terra, che ha influenzato in modo determinante tutti i campi di ricerca nell'ambito delle scienze della Terra (ci occuperemo in seguito delle ricadute che esso ha avuto negli studi sui giacimenti minerari). Per comprendere la cinematica delle placche è necessaria la conoscenza di alcune nozioni di base riguardanti la struttura e composizione della crosta e del mantello superiore. Gli involucri superficiali della Terra sono distinti in strati verticali sulla base di considerazioni chimico-mineralogiche. In modo molto schematico, si può distinguere la crosta continentale da quella oceanica: la prima è più leggera e ha composizione granitica, con spessori medi compresi tra i 30 e i 50 km; la crosta oceanica è invece costituita da rocce più dense a composizione basaltica e presenta spessori molto più ridotti (tra i IO e i 12 km). La superficie che segna il passaggio tra crosta e mantello coincide con la discontinuità di Mohorovicié (o Moho), in corrispondenza della quale si registra un brusco aumento della velocità delle onde sismiche. Su basi reologiche si distingue invece la litosfera dall'astenosfera. n passaggio tra la litosfera, l'involucro più superficiale a comportamento prevalentemente rigido, e l'astenosfera, che costituisce la parte superiore del mantello e ha comportamento plastico, si identifica con il cosiddetto « canale a bassa velocità », una zona in cui la propagazione delle onde sismiche avviene con velocità inferiori a quella normale. Gli spessori medi della crosta litosferica, evidenziati dagli studi geofisici e geochimici, sono di circa 75 km sotto i bacini oceanici e di no-130 km sotto i continenti. La teoria della tettonica delle placche assimila la litosfera a un mosaico di zolle rigide che, da un punto di vista cinematico, sono descritte in costante movimento 453
www.scribd.com/Baruhk
Le scienze della Terra
relativo. Secondo questa teoria l'espansione dei fondali oceamc1 avviene perpendicolarmente alle dorsali, mentre nelle aree di convergenza tra le placche la subduzione nelle fosse può avvenire secondo angoli variabili. Le interazioni tra placche in movimento possono essere di diversi tipi, anche in funzione del tipo di crosta continentale o oceanica coinvolta. L'osservazione della distribuzione globale dei terremoti mette in evidenza la loro disposizione secondo fasce ristrette ben determinate. L'andamento di queste fasce coincide, a scala globale, con i limiti delle placche ed è associato alla presenza di strutture tettoniche caratteristiche (fosse tettoniche, dorsali oceaniche, fasce orogenetiche, zone di attività vulcanica). Il tipo di sismicità varia in funzione delle strutture tettoniche a esso associate. In corrispondenza delle dorsali medio-oceaniche, dove si registra un elevato flusso di calore e attività vulcanica basaltica, la sismicità è caratterizzata da terremoti con epicentri poco profondi (inferiori a 70 km). Ancora terremoti poco profondi si registrano in corrispondenza di zone di deformazione con spostamenti prevalentemente orizzontali (per esempio: la faglia nordanatolica in Turchia e la faglia di San Andreas in California) dove è assente l'attività vulcanica. Terremoti con ipocentri che possono variare da superficiali a profondi (70-700 km) si verificano in corrispondenza delle fosse oceaniche profonde associate ai sistemi insulari. La distribuzione degli ipocentri defmisce un piano che si immerge in profondità a partire dalla zona di fossa (piano di Benjoff). Esiste infme una sismicità caratteristica di zone sottoposte a forti spinte compressive, come quelle della catena alpino-himalayana, dove gli ipocentri sono generalmente superficiali e associati a elevate catene montuose. Dall'osservazione della distribuzione della sismicità si nota come i limiti delle placche non coincidano con i limiti dei continenti o degli oceani. Una placca può dunque coinvolgere aree continentali e oceaniche insieme oppure singolarmente. Per quanto riguarda il margine continentale, questo si fa coincidere con la posizione dell'isobata dei 2ooo m sulla scarpata continentale. Il geofisico canadese J.T. Wilson (1965) fu il primo a utilizzare il termine «placche» e a suggerire una nuova classe di faglie principali che chiamò trasformi. Le placche possono avere tre diversi tipi di margini: r) margini in accrescimento, in corrispondenza degli assi delle dorsali oceaniche dove avviene l'emissione continua di nuovi materiali dal mantello (per esempio la dorsale medio-atlantica); 2) margini in consunzione, in corrispondenza delle grandi fosse oceaniche o delle catene montuose (margini del Pacifico occidentale, come per esempio la fossa delle Marianne, e del Pacifico orientale, come le cordigliere andine); 3) margini trasformi, in corrispondenza delle faglie trasformi, lungo le quali avviene un movimento orizzontale tra le placche con direzione parallela alla faglia (faglia di San Andreas tra la zolla nordamericana e quella pacifica). I continenti, nel modello della tettonica delle placche, risultano trasportati passivamente dal moto di convezione dell'astenosfera; gli attuali limiti dei continenti dovrebbero pertanto coincidere con quelle che, durante la scissione dei supercon454
www.scribd.com/Baruhk
Le scienze della Terra
tinenti, erano antiche zone di frattura o di faglie trasformi. In effetti può accadere che il movimento relativo tra le placche, dovuto a un sistema convettivo, si modifichi causando un'inversione (per esempio nel movimento di un blocco continentale). In questo caso, un margine continentale che si trovava in posizione posteriore rispetto alla direzione del movimento (come per esempio l'attuale margine atlantico degli Stati Uniti) potrebbe trovarsi in posizione anteriore e andare a convergere con un'altra placca in una zona di subduzione, oppure a collidere con un altro blocco continentale. Sulla base delle conoscenze geologiche e geofisiche si possono distinguere tre tipi di margini continentali: I) margini continentali passivi o di tipo atlantico, così detti in quanto collocati ai bordi di un oceano; i margini di questo tipo limitano i bacini oceanici in espansione, sono caratterizzati da assenza di attività sismica e sono sede di abbondante sedimentazione (questo processo può portare alla formazione di un prisma di sedimenti posto tra continente e oceano e costituito da serie di miogeosinclinali e di eugeosinclinali); 2) margini continentali compressivi o attivi, caratteristici di oceani in contrazione, come il Pacifico; questi margini presentano attività sismica e appartengono ai sistemi tettonici delle zone in subduzione (sistemi arco-fossa); 3) margini continentali trasformi, posti in corrispondenza di spaccature orizzontali che provocano brusche deviazioni nella frattura iniziale del continente. Uno dei più significativi fenomeni legati alla tettonica globale è la subduzione litosferica, di cui è stata fornita una spiegazione solo verso la fine degli anni sessanta. La subduzione costituisce un collegamento tra la teoria dell'espansione dei fondi oceanici e quella della tettonica delle placche. Dal momento che il volume della Terra si mantiene costante e che, in corrispondenza delle dorsali oceaniche, si genera nuova litosfera, è necessario che la vecchia litosfera si «consumi» (vedi fig. 7) . Que-
l
Continente
Bacino marginale
Vulcanismo andesitico
Sedimenti
Oceano
Dorsale medio-oceanica
Litosfera Astenosfera a bassa viscosità
Mesosfera (mantello profondo)
Fig. 7. La sezione schematica rappresenta la produzione di nuova astenosfera in corrispondenza delle dorsali oceaniche e la subduzione della placca litosferica che sprofonda nel mantello. I terremoti sono localizzati prevalentemente nella parte superiore della placca in subduzione (piano di Benjoff). Le frecce nell'astenosfera indicano i movimenti convettivi. (Illustrazione da «Le Scienze>>, 1984. )
455
www.scribd.com/Baruhk
Le scienze della Terra
sto avviene attraverso la subduzione della litosfera all'interno del mantello terrestre e la sua assimilazione. In questo modo si spiega la maggior parte dei fenomeni di instabilità o dei processi geologici che avvengono sulla superficie terrestre. In corrispondenza delle zone di subduzione ha luogo infatti la maggior parte dei terremoti (con ipocentro superficiale, intermedio e profondo), sono localizzati i principali edifici vulcanici, gli archi insulari, le fosse oceaniche e le catene montuose più importanti. Il regime termico della Terra comporta temperature che aumentano dalla superficie in profondità, raggiungendo i 1200 OC circa intorno ai 100 km di profondità. A profondità maggiori la temperatura continua ad aumentare anche se più lentamente. Nel processo di subduzione la zolla litosferica subisce un riscaldamento dovuto a diversi fattori: il flusso di calore dal mantello alla litosfera più fredda; la pressione che cresce con lo sprofondamento della zolla e genera un riscaldamento da compressione; il calore determinato dal decadimento di elementi radioattivi (uranio, torio e potassio) presenti nella crosta terrestre; il calore prodotto dalle trasformazioni di struttura subite dai minerali per adeguarsi attraverso configurazioni più compatte all'aumento di pressione con la profondità; il calore dovuto all'attrito tra placca litosferica in subduzione e mantello. Il riscaldamento della placca ne comporta l'assimilazione e ne impedisce il riconoscimento dal punto di vista termico come unità separata dal mantello. Naturalmente la velocità di subduzione influenza la profondità alla quale si raggiunge l'equilibrio termico della placca litosferica. L'attività sismica può accompagnare il fenomeno di subduzione fino al raggiungimento dell'equilibrio termico e all'assimilazione della placca. La disposizione in profondità nelle zone di subduzione degli ipocentri dei terremoti individua un piano inclinato in corrispondenza della zolla in subduzione: il piano di Benjoff. Non si hanno dati di registrazione di sismi a profondità maggiori di 700 km. Il fenomeno della subduzione ha importanti conseguenze in campo geologico, geofisico e geochimico. I sedimenti che si accumulano in corrispondenza delle fosse oceaniche, depositandosi fra la crosta oceanica in subduzione e la crosta continentale, subiscono vistose deformazioni (vedi fig. 8). Secondo alcuni autori, la fusione parziale della crosta oceanica durante la subduzione controlla la composizione dei magmi che si producono nel vulcanismo andesitico tipico degli archi insulari. Nelle zone di subduzione si registra un particolare andamento del flusso di calore, con valori piuttosto bassi in corrispondenza delle fosse oceaniche ed elevati negli archi insulari dovuti al vulcanismo. A metà degli anni settanta alcuni scienziati hanno evidenziato il ruolo svolto dal processo di subduzione nel movimento delle placche, capovolgendo l'orientamento epistemologico iniziale della tettonica delle placche, che affidava all'apertura delle dorsali oceaniche la funzione di motore del movimento delle placche. Esistono due tipi di zone di subduzione, che costituiscono le due varietà estreme di tutta una serie di margini: il tipo cileno e il tipo delle isole Marianne
www.scribd.com/Baruhk
Le scienze della Terra Sedimenti di fossa
Sedimenti di mare profondo
Sedimenti deformati
Piattaforma continentale
Crosta oceanica Litosfera
Depositi deltizi
Cunei deformati di crosta oceanica
Fig. 8. Lo schema mostra una placca oceanica che, scorrendo al di sotto della crosta oceanica, causa la collisione tra masse continentali. Questo tipo di subduzione determina la formaz ione di una catena montuosa, come si vede nell'ultimo schema. (illustrazioni da <
457
www.scribd.com/Baruhk
Le scienze della Terra TIPO CILENO
TIPO MAAIANNE C ATEN A MONTUOSA ANDESITI CALCOALCAUNE RAME NATIVO
STRUTIUREA GRABENCHE .. PIAllANO,.
LE ZOLlE
~~~~Dif ANCORATA AlMANTf:llO
Fig. 9. Nello schema sono rappresentati i due tipi estremi di subduzione: il tipo cileno e il tipo Marianne. (Illustrazione da « Le Scienze>>, 1984.)
(vedi fig. 9) . Tra i due tipi sono state accertate alcune differenze fondamentali: il tipo cileno è un margine in compressione, mentre il tipo Marianne è in distensione; il primo presenta una topografia anche notevolmente elevata, il secondo ha un rilievo topografico quasi inesistente; il vulcanismo cileno è andesitico esplosivo, quello del tipo Marianne è toleitico effusivo sottomarino. In corrispondenza dei margini di tipo cileno si genera rame nativo, mentre nei margini del tipo Marianne esistono grandi giacimenti di solfuri legati ai processi idrotermali dei bacini di retroarco. La teoria della tettonica delle placche interpreta anche il ciclo geosinclinalico nel quadro tettonico globale. Una geosinclinale è costituita da un ampio e lungo prisma sedimentario che si deposita in aree subsidenti della crosta terrestre. L' accumulo di questi sedimenti, che raggiungono spessori notevolissimi, e la loro deformazione in pieghe, costituiscono un ciclo geosinclinalico. La geosinclinale è formata da due strutture adiacenti e parallele: la miogeosinclinale e la eugeosinclinale. Un esempio di geosinclinale attuale in formazione è quella che borda la scarpata continentale degli Stati Uniti orientali, lungo l'oceano Atlantico. Lo zoccolo continentale che borda la scarpata costituisce una eugeosinclinale attuale, mentre il prisma sedimentario che si deposita sulla piattaforma continentale costituisce una miogeosinclinale attuale. La tettonica delle placche prevede che le miogeosinclinali siano ensialiche, cioè depositate su crosta continentale, e che le eugeosinclinali siano invece ensimatiche, cioè depositate su crosta oceanica, a differenza di quanto si pensava negli studi precedenti alla formulazione di questa teoria. Una brillante e recente interpretazione della teoria della tettonica delle placche è quella elaborata dal ricercatore italiano Carlo Dogliani (1990, 1991). Dogliani attribuisce al movimento di rotazione della Terra attorno al proprio asse e alle sue periodiche oscillazioni un ruolo fondamentale nella dinamica terrestre. La dinamica delle placche è espressa in superficie da linee di flusso, costruite sulla base dei vettori
www.scribd.com/Baruhk
Le scienze della Terra
Fig. 10. li disegno mostra le linee di flusso che rappresentano l'andamento medio delle placche litosferiche sulla superficie terrestre. I vettori a lunghezza variabile indicano le velocità relative verso ovest. Le frecce più grandi indicano il controflusso opposto del mantello verso est e nord-est. (Illustrazione da Dogliani, « Le Scienze>>, 1991.)
compressione-estensione per ogni singola placca, di cui rappresentano il movimento relativo (vedi fig. ro). L'andamento delle linee di flusso , che in generale procede da est verso ovest, presenta alcune irregolarità e ondulazioni ad ampio raggio legate al cosiddetto «effetto trottola» della rotazione terrestre, a sua volta dovuto alle differenze di viscosità tra litosfera e mantello. Tra le ondulazioni, la più estesa è quella che si registra per circa 15.000 km tra il Pacifico occidentale e l'Africa orientale, comprendente tutta l'area himalayana. L'alta frequenza delle oscillazioni terrestri attorno all'asse di rotazione è responsabile di questo disequilibrio. In questa interpretazione, il moto convettivo delle celle del mantello determina una serie di variazioni nello stato di viscosità dell'astenosfera e controlla l'estensione e il grado di « scollamento » tra astenosfera e litosfera. La presenza di uno o più livelli di scollamento determina un movimento delle placche litosferiche identificabile con un ritardo inerziale verso ovest di queste ultime rispetto al mantello. In questo modello la zolla è costituita da un blocco litosferico rigido ed è definita dalla propria velocità. I movimenti relativi tra le placche e le interazioni tra i loro margini sono controllati dall'andamento delle anomalie fisiche del mantello, che determinano maggiore o minore svincolo tra le placche e il mantello stesso. In particolare si tratta 459
www.scribd.com/Baruhk
Le scienze della Terra
Crosta
A
A'
B
c
D
Litosfera
Fig. 11. Nello schema sono rappresentati gli effetti dello scollamento tra litosfera e mantello astenosferico. È da notare l'effetto <> nella subduzione verso ovest, in cui la litosfera viene retro flessa verso est dalla resistenza opposta dal mantello. (Illustrazione da Dogliani, «Le Scienze>>, 1991.)
di eterogeneità laterali nella litosfera e nel mantello e di eterogeneità verticali dovute a contrasti di viscosità. È interessante sottolineare come alcuni fenomeni geologici osservabili a scala globale siano interpretabili con questo modello: le zone in subduzione verso ovest sono solitamente molto più inclinate di quelle verso est (per esempio quelle del margine occidentale del Pacifico); tutti i bacini di retroarco sono associati a subduzione verso ovest (per esempio il Mare del Giappone); la migrazione dei sistemi catena-avanfossa è accompagnata dalla migrazione verso est dei regimi compressivi e distensivi e del magmatismo. n primo di questi fenomeni è dovuto al fatto che una subduzione verso ovest contrasta il flusso del mantello, per cui si verifica una sorta di effetto « ancora » che determina la maggiore inclinazione della placca in subduzione. Viceversa, una subduzione verso est concorda con il movimento del mantello e tende necessariamente a blande inclinazioni della placca (vedi fig. n). Ne consegue, nel primo caso, la creazione di un prisma di accrezione costituito prevalentemente da copertura sedimentaria, la formazione di un' avanfossa profonda e, in generale, una bassa elevazione morfologica e strutturale della catena. Si verifica inoltre la migrazione nel tempo verso est del sistema distensione-compressione e l'apertura di un bacino di retroarco. Nel secondo caso si avrà la formazione di una catena di alta elevazione morfologica e strutturale, con esteso coinvolgimento del basamento cristallino nel prisma di accrezione e un' avanfossa piuttosto superficiale. V
· PROGRESSI
NELLA
GEOFISICA:
LA
STRATIGRAFIA
SEQUENZIALE
Contemporaneamente alle prime formulazioni della teoria della tettonica delle placche, negli anni sessanta si verificò un profondo mutamento nel campo della stratigrafia. Nell'ambito delle ricerche petrolifere si elaborarono infatti nuove metodologie di analisi e interpretazione di dati sismici ad alta risoluzione, che consentirono correlazioni tra successioni sedimentarie appartenenti a bacini diversi, basate sul rico-
www.scribd.com/Baruhk
Le scienze della Terra
noscimento nei depositi degli effetti di eventi fisici avvenuti a scala globale. L'impatto che tali metodi d'interpretazione ebbero nel campo della stratigrafia è paragonabile a quello provocato dalla teoria della tettonica delle placche in tutti i campi delle scienze della Terra. L'esistenza di variazioni del livello del mare a scala globale era nota fin dai primi anni del Novecento. Suess introdusse per primo il termine di eustatismo per indicare tali oscillazioni a scala globale; esse sono legate a variazioni climatiche, che si susseguono ad alta frequenza e determinano l'alternarsi di periodi freddi (glaciali) e periodi più temperati (interglaciali). Tali oscillazioni climatiche, individuate e studiate soprattutto per il Quaternario (circa gli ultimi 2 milioni di anni), sono a loro volta connesse a una serie di cause astronomiche. Per avere un ordine di grandezza di queste oscillazioni, si può affermare che una fase glaciale si ripete in media ogni roo.ooo anni circa. Nelle aree costiere e a mare la ciclicità climatica determina fluttuazioni eustatiche, con un alternarsi di fasi di alto e di basso stazionamento del livello del mare. In aree di piattaforma continentale questo fenomeno comporta lo sviluppo di sequenze sedimentarie in cui si ha una rapida variazione delle facies, con andamento ciclico in funzione delle variazioni eustatiche. Un ciclo di variazione eustatica comprende un intervallo di tempo nel quale a una fase di abbassamento e di basso stazionamento del livello del mare, accompagnata da sedimentazione di depositi torbiditici bacinali in corrispondenza del margine di piattaforma continentale, segue una fase di innalzamento e, quindi, di alto stazionamento del livello del mare. Durante la graduale risalita del livello del mare i sedimenti marini e continentali tornano a invadere aree di piattaforma precedentemente emerse, dando luogo a un appoggio basale in discordanza sul deposito precedente (onlap). Il verificarsi di questo ciclo determina la formazione di un corpo sedimentario che costituisce la sequenza deposizionale. Il concetto di ciclicità climatica e i suoi effetti sulle caratteristiche della deposizione sono alla base della stratigrafia sequenziale. Per comprendere i concetti base e l'evoluzione di questa scienza della Terra è necessario soffermarsi preliminarmente su alcuni principi della sismostratigrafia. La stratigrafia sismica consente di interpretare ih chiave stratigrafica i dati ottenuti con i metodi ad alta risoluzione della sismica a riflessione. L'interpretazione in chiave stratigrafica delle sezioni sismiche è basata sul principio che le riflessioni sismiche rappresentano le superfici fisiche di contrasto densità-velocità che si sviluppano parallelamente a superfici di strato o a superfici di discordanza. Le superfici di strato sono le antiche superfici di deposizione dei sedimenti e rappresentano pertanto, nel profilo sismico, delle linee-tempo. Parallelamente, le superfici di discordanza del profilo rappresentano antichi strati di erosione o di non deposizione che corrispondono a lacune stratigrafiche; anche queste ultime sono superfici cronostratigrafiche o linee-tempo sul profilo, in quanto separano strati più giovani da strati più antichi. La risoluzione attuale della sismica a riflessione è dell'ordine della decina di metri; essa consente perciò di individuare
www.scribd.com/Baruhk
Le scienze della Terra
non i singoli strati, ma gruppi o pacchi di strati. Il principio fondamentale su cui è basata la stratigrafia sismica consiste nell'ammettere una corrispondenza tra le geometrie delle riflessioni e le geometrie deposizionali. Su questa base è possibile applicare alle riflessioni sismiche i concetti di base della stratigrafia classica. La configurazione geometrica dei riflettori, la loro continuità e ampiezza definiscono infatti le cosiddette facies sismiche. Nel quadro tettonico globale, lo studio dell'evoluzione dei margini convergenti, divergenti e trasformi ha tratto un notevole impulso dallo sviluppo della sismostratigrafia. Negli ultimi decenni, infatti, le metodologie d'interpretazione stratigrafica dei profili sismici a riflessione sono state applicate allo studio dei margini continentali passivi, dove sono localizzati i grossi prismi sedimentari d' accrezione e quindi ingenti accumuli di sedimenti dovuti allo smantellamento dei blocchi continentali. L'interpretazione di queste sequenze ha portato al riconoscimento di eventi deposizionali che presentano caratteri particolari e si susseguono in un modo caratteristico che consente di attribuirli ai cicli eustatici. Questi studi sono applicati prevalentemente ai margini continentali passivi e ai bacini cratonici, per i quali è possibile affermare che il fenomeno dell'eustatismo è quello che esercita il maggior controllo nell'organizzazione dei corpi sedimentari. Una prospettiva per i futuri sviluppi della stratigrafia sismica consiste nella possibilità di inserire nuove variabili nello schema interpretativo delle sequenze deposizionali, indirizzando le ricerche anche su zone diverse dai margini continentali passivi, dove, negli schemi evolutivi globali, oltre al fenomeno dell'eustatismo, entrino in gioco la tettonica e la subsidenza come fattori di controllo dello sviluppo delle successioni sedimentarie. La stratigrafia sequenziale nasce come sviluppo della stratigrafia sismica, soprattutto all'interno dei laboratori di ricerca della Exxon, per la grande importanza che riveste per le ricerche petrolifere; essa rappresenta un nuovo metodo di analisi e di interpretazione in chiave stratigrafica dei dati sismici. La stratigrafia sequenziale studia le rocce in un unico quadro cronostratigrafico, attraverso l'osservazione degli effetti di eventi fisici globali sulla sedimentazione. Essa si basa sul riconoscimento del fatto che i corpi sedimentari presentano particolari geometrie e strutture in risposta alle variazioni (aumento o diminuzione) dello spazio disponibile (accommodation space) per la sedimentazione, vale a dire dello spazio tra la superficie del sedimento al fondo del bacino e il livello del mare. Tale spazio è determinato dalla combinazione di tre fattori: la subsidenza o il sollevamento del bacino, il livello del mare e gli apporti sedimentari. Non sono i valori assoluti di ciascuno di questi fattori, bensì i loro tassi di variazione, a causare il prevalere di uno dei tre fattori nel determinare le caratteristiche del corpo sedimentario. In corrispondenza dei margini continentali passivi, dove sono presenti grandi quantità di apporti sedimentari in grado di colmare lo spazio disponibile, la struttura dei corpi sedimentari è controllata dai rapporti tra le variazioni del livello del mare e la subsidenza.
www.scribd.com/Baruhk
Fig. l. Nelle due fotografie appaiono evidenti le pieghe in calcari mesozoici delle Dolomiti. Le tipiche deformazioni delle catene montuose sono la conseguenza dell 'interazione tra le placche rigide in movimento sulla superficie terrestre. (Fotografie da Doglioni, 1991.)
www.scribd.com/Baruhk
www.scribd.com/Baruhk
PLACC~
DEL PACIFICO
·'
·-<;10"---...· .
.
l
:;
7
~ .· • 4
-\
---
~\
Zone di coll isione conti nentale
Limiti di placca divergenti .........., Zone di subduzione oceanica
--
-~
Movimenti delle placche
Velocità di espansione 6 (cm per anno) Velocità di subduzione 11 (cm per anno)
Fig. 6. Nella carta sono rappresentate le principali placche litosferiche e la loro direzione di movimento (frecce). La linea a tratteggio più marcato indica le zone di subduzione e le profonde fosse oceaniche; i pallini neri evidenziano la distribuzione dei terremoti.
www.scribd.com/Baruhk
www.scribd.com/Baruhk
Le scienze della Terra cicli di 1o ordine
cicli di 2° ordine (supercicli)
variazioni relative del livello marino -+-- rising
o ·c:c
100
ro
u ·c:o
~ 200
.!:
1,0
l - rising
~
O
1,0
0
T
.............t~·· o
~;.;~~ ~;: ;:-~e: -r~: ~:-=:~ ;: :-=o~ - - "'!'; ;~='~_M;n~; ~L;· · ~ •••••••••••••• ·~· ~
(
:::::::::::::::::::::::·~:· ~:· ;· .·.·.·.·..·.:r.~:: 200 ~
100
.
~-----\...... .. ....... . ....
- 400 2
r-,:;;;-:-::;:::::-:::--i==:::::;:;:M=L= ........... .
Cl>
g O
"'\
~~~~~~~~~~~~@·········· · · · ·
Cl> C>
o a.
o .§
falling -
0,5
t:::::J·i~~~~~iÈi;~==:::i···················
E
C>
~ 300
·c:
variazioni relative del livello marino
epoche
falling -
0,5
(
o g
periodi
c
~
p
.......... ... . ........
-~
~: 3001 Cl>
400 -
0 -S M
500
500 M
C-0
Fig. 12. Curve delle variazioni globali del livello relativo del mare costruite sulla base dell'andamento delle discordanze in facies costiere (onlap costieri). Sono riportati i cicli del 1 e del n ordine dal Precambriano al Pleistocene. (Illustrazioni da Vai! e altri, 1977 ·)
Il metodo della stratigrafia sequenziale si basa sul riconoscimento e la definizione, all'interno di una successione stratigrafica, di sequenze deposizionali che ne costituiscono le unità di strato. La sequenza deposizionale si definisce come un insieme di strati geneticamente correlati, delimitati da superfici erosive o dalle relative superfici di conformità. I limiti di sequenza deposizionale vengono riconosciuti sulla sezione sismica dalle riflessioni corrispondenti alle terminazioni marginali degli strati e alle superfici di discontinuità o di concordanza a esse correlabili. La correlazione tra i diversi bacini è possibile sulla base di alcuni elementi caratteristici delle sequenze deposizionali (quali per esempio, significative discordanze stratigrafiche) e inoltre sulla base della ricostruzione di curve di variazione relativa degli onlap costieri, cioè di fasi di risalita del livello del mare, secondo cicli simili tra bacini diversi legati alle fluttuazioni eustatiche del livello del mare (vedi fig. 12). Esiste una terminologia piuttosto complessa per esprimere in modo preciso le varie geometrie deposizionali che sono significative in questo tipo di analisi stratigrafica (per questo aspetto si rimanda ai testi e agli articoli specifici segnalati in
www.scribd.com/Baruhk
Le scienze della Terra
bibliografia). In questa sede ci si limiterà a richiamare i concetti di base su cui si fondano le metodologie di interpretazione stratigrafica, allo scopo di evidenziare il ruolo innovativo che esse hanno svolto nello sviluppo delle scienze della Terra. Il concetto di sequenza come unità di strato delimitata da superfici di non conformità veniva già introdotto nei lavori di L.L. Sloss degli anni sessanta; questi applicava il concetto di sequenza al cratone nordamericano, distinguendo nei depositi formatisi tra il Precambriano e l'Olocene sei pacchi principali di strati delimitati da superfici d'estensione interregionale. Il passo successivo nello sviluppo della stratigrafia sequenziale è quello che ha portato ai risultati resi noti negli articoli pubblicati nel n. 26 delle Memorie dell'American Association o/ Petroleum Geology del 1977. Il volume contiene i lavori più significativi di Vail, Mitchum, Sangree e Thompson III della Exxon, grazie ai quali è stato modificato il concetto di sequenza presentato da Sloss. Questi autori riferivano la sequenza a intervalli di tempo più brevi e la collegavano al fenomeno dell'eustasia come meccanismo guida della sua evoluzione nel tempo. In questa nuova prospettiva le sei sequenze di Sloss, riferite ai sedimenti del cratone nordamericano, diventavano unità di rango superiore (parasequenze) e venivano suddivise in diverse unità. Le curve di variazione del livello del mare a scala globale, mostrano cicli globali sviluppati su tre ordini di grandezza: 2 cicli del I ordine, dal Cambriano al Triassico inferiore e dal Triassico medio a oggi, dell'ordine dei 200-300 Ma (milioni di anni); 14 cicli del II ordine, con periodi variabili tra IO e 8o Ma; 8o cicli del III ordine, con periodi compresi tra r e IO Ma. I cicli di variazione del 1 e II ordine (quelli cioè a lungo termine) sarebbero connessi a meccanismi di lunga durata e a processi geotettonici su grande scala. Secondo alcuni studiosi, essi sarebbero, almeno in parte, fu,nzione dell'attività tettonica delle placche: le fasi corrispondenti ali' abbassamento del livello del mare sarebbero legate a periodi di aggregazione continentale, mentre le fasi di sollevamento del livello del mare corrisponderebbero a momenti di massima dispersione delle placche. Le variazioni, a più breve termine, del m ordine sarebbero legate alle glaciazioni o a cause climatiche e dovrebbero essere collegate alle discontinuità che separano le varie sequenze deposizionali. Nelle sequenze deposizionali si riconoscono dunque i prodotti sedimentari dei cicli del III ordine. VI
· TETTONICA
DELLE PLACCHE
E PROVINCE
METALLOGENETICHE
L'accettazione del modello unitario di tettonica globale non poteva non riverberarsi anche sullo studio dei fenomeni metallogenetici, soprattutto per le conseguenze che la diversa interpretazione delle informazioni geofisiche, provenienti dalla parte bassa della crosta e dalla zona alta del mantello, comporta per tutti i fenomeni plutonici. Si è così giustamente parlato, per la genesi dei giacimenti, di una sorta di neonettunismo. D'altro canto, i fenomeni considerati telemagmatici (come quasi tutti i fenomeni idrotermali) non vanno più interpretati come tali, in quanto
www.scribd.com/Baruhk
Le scienze della Terra
gran parte di essi, se non la totalità, è da ascrivere, da un lato, alla rimobilizzazione di elementi chimici operata da acque vadose, riscaldate e portate a temperature e pressioni sopracritiche in profondità; dall'altro, alla diversa concezione che oggi si ha dei fenomeni un tempo chiamati di ultrametamorfismo, che altro non sono che fenomeni di parziale o totale rifusione (anatettici) di masse crostali o subcrostali. In questa prospettiva è oggi possibile riesaminare, in una visione unitaria e alla luce degli sviluppi più recenti della teoria della tettonica delle placche, anche i fenomeni metallogenetici. Come abbiamo già detto, i rapporti tra le placche crostali danno luogo a tre diversi tipi geodinamici che individuano tre gruppi di aree a diverso comportamento: r) le aree di convergenza tra due zolle con relativi fenomeni di collisione e subduzione (non importa al momento precisare se si tratti di due zolle continentali in collisione, come per esempio nell'area mediterranea, o di una zolla oceanica e una continentale, come in gran parte del margine pacifico del continente americano); 2) le aree di margini divergenti di zolle, contrassegnate da dorsali oceaniche (del tipo atlantico), dove si ha fuoruscita di materiale fuso del mantello e formazione di nuova crosta; 3) i margini in cui le zolle slittano l'una rispetto all'altra dando origine a faglie trasformi. La teoria della tettonica delle placche fornisce nuovi criteri non solo per l'interpretazione della genesi dei giacimenti minerari già noti, ma anche per la formulazione di nuove ipotesi genetiche che possono essere di guida per le ricerche. In particolare, nel vastissimo settore dei giacimenti idrotermali, fino a pochi anni or sono interpretati solo come giacimenti telemagmatici, la teoria della tettonica delle placche lascia adito a interpretazioni diverse. Come già si è accennato, si tende a spiegare la formazione dei depositi idrotermali come dovuta a precipitazioni da soluzioni, senza peraltro collegare direttamente il fluido mineralizzante a fenomeni di « rastrellamento » che le acque calde avrebbero operato nelle formazioni attraverso le quali sono passate. Come è stato messo in evidenza da F. Sawkins, la maggior parte dei depositi a solfuri si trova lungo attuali o antichi margini convergenti, nei quali una zolla si immerge sotto l'altra. I processi che concentrano questi depositi in tali margini sono in parte stati ipotizzati da RH. Sillitoe: la maggior parte dei metalli che va a costituire i depositi di «cordigliera» deriverebbe dal mantello e, in seguito ai fenomeni di rottura e spreading connessi all'espansione dei fondi oceanici e alla formazione delle dorsali, verrebbe a far parte della crosta litosferica di neoformazione e dei sedimenti che su di essa vengono depositati. Vengono considerati una conferma di tale meccanismo i tenori anomali dei metalli nei sedimenti pelagici in prossimità delle dorsali oceaniche e dovunque esistano processi di rotture crostali profonde (Mar Rosso). L'insieme della litosfera e dei sedimenti, arricchito quindi dai metalli provenienti dal mantello, spostandosi in seguito alla continua produzione di nuova crosta dalle fratture oceaniche verrebbe a collidere con una zolla continentale e comincerebbe lentamente a inflettersi e a scivolare al di sotto di questa, seguendo
www.scribd.com/Baruhk
Le scienze della Terra
l'inclinazione del piano di Benjoff. Inizierebbero quindi i processi di fusione, più o meno spinti a seconda della profondità, coinvolgenti la zolla di crosta oceanica in immersione e i sedimenti a essa associati. Una fusione parziale a bassa profondità darebbe origine a mineralizzazioni essenzialmente a ferro e rame, e localmente, a oro, mentre a maggiori profondità una più alta temperatura causerebbe la fusione di porzioni maggiori di crosta oceanica, oltre che di sedimenti, per cui si formerebbero depositi a solfuri di piombo, zinco e argento; da ultimo, si avrebbe la formazione di cassiterite. Questo schema di suddivisione delle province metallogenetiche spiegherebbe anche perché alcune di esse mantengono nel tempo la costanza delle specie mineralizzate, come i depositi di rame del Cile e della Bolivia. Fra i depositi a solfuri così formatisi vi sarebbero anche i giacimenti di Kuroko in Giappone, i giacimenti a solfuri delle Filippine, e altri. Nel Mar Rosso, dove un nuovo oceano incomincia a formarsi, e dove pertanto si è di nuovo in presenza di un margine divergente, Degens e Ross hanno individuato sul fondo, sin dal 1969, tre tasche di acque ipertermali con altissimo contenuto di sali di metallo di ferro, manganese, zinco e rame. Gli stessi metalli, con l'aggiunta di piombo e argento, sono stati rinvenuti nei sedimenti del fondo carotati per una decina di metri (anche se le prospezioni geofisiche assegnano una potenza di un centinaio di metri). È stato così possibile stimare quantità di minerali di rame, piombo, zinco, argento e manganese maggiori di 130 milioni di tonnellate. Fenomeni simili sono stati riscontrati nel 1973 da Degens e Kulbicki sul lago Kivu, nella Rift Valley dell'Africa orientale, che rappresenta la continuazione della linea divergente del Mar Rosso. Anche il massiccio di Troodos, nell'isola di Cipro, interpretato come un frammento di crosta oceanica spinto in superficie durante la convergenza di due placche, presenta mineralizzazioni di pirite, calcopirite e cromite, collegate, con grande probabilità, alla formazione di una dorsale e alle connesse effusioni vulcaniche basiche. Per quanto concerne gli idrocarburi, i requisiti necessari perché un giacimento si formi sono: l'esistenza di materia organica; un serbatoio naturale atto a contenerli; una trappola in cui gli idrocarburi liquidi e gassosi possano concentrarsi. Affinché abbia luogo la formazione di petrolio, che è un insieme di idrocarburi derivati da resti di piante e animali, è necessario che la materia organica si accumuli in un ambiente che ne consenta la conservazione; quest'ultimo fenomeno è favorito da un ambiente che risulta tossico per gli organismi viventi (in tal modo la materia organica non viene utilizzata per l'alimentazione) e carente di ossigeno (così la materia organica non viene ossidata). A questo punto è lecito chiedersi come le condizioni favorevoli all'accumulo di petrolio possano essere interpretate nel modello della tettonica delle placche. Secondo A.P. Rona valgono le seguenti considerazioni. I margini convergenti, lungo i quali la parte oceanica di una zolla litosferica si immerge al di sotto di un
www.scribd.com/Baruhk
Le scienze della Terra
margine continentale, sono caratterizzati dalla presenza di una profonda fossa che corre per buona parte della loro lunghezza. Per esempio, lungo tutto il margine continentale delle due Americhe, dove la litosfera del Pacifico sprofonda al di sotto del continente, si sviluppa un sistema di profonde fosse oceaniche; lungo alcuni margini convergenti compaiono anche festoni di archi vulcanici insulari, posti tra la fossa e il continente. Lungo il margine occidentale del Pacifico vi sono numerosi archi insulari, tra cui quelli delle Aleutine, delle Kurili, del Giappone, delle Ryu Kyu, delle Filippine e dell'Indonesia. Archi simili sono quelli delle Marianne, delle Sandwich meridionali e delle Indie occidentali. Gli archi insulari dividono un oceano in bacini più piccoli e parzialmente chiusi, come il Mare di Bering e quello del Giappone, il Mar Giallo e il Mar Cinese Meridionale. Sia le fosse marginali sia gli archi insulari, determinano un ambiente che è favorevole da diversi punti di vista all'accumulo di petrolio: in primo luogo, fosse e archi insulari si comportano come barriere che catturano sedimenti e materia organica provenienti dal continente o dal bacino oceanico; in secondo luogo, la forma delle fosse e dei piccoli bacini oceanici determina un rallentamento e una deviazione della circolazione oceanica così che in alcuni luoghi il ricambio di ossigeno è modesto e la materia organica depositata può conservarsi; infine, l'accumulo di sedimenti e le strutture geologiche che si sviluppano in seguito alla deformazione dei sedimenti provocata da forze tettoniche possono dar luogo a serbatoi e trappole per la formazione di petrolio. Secondo Hollis D. Hedberg, questi bacini marginali semichiusi costituiscono alcune delle aree più promettenti per le prospezioni petrolifere. Anche lo sviluppo di margini divergenti potrebbe creare un ambiente favorevole all'accumulo di petrolio. Se ciò fosse confermato, si aprirebbero immense possibilità per le ricerche petrolifere anche nei bacini oceanici profondi. Quando al di sotto di un continente si sviluppa un margine divergente, il continente stesso viene spezzato in due porzioni che vengono tra loro allontanate dalla generazione continua di nuova litosfera. All'atto in cui i due frammenti continentali si allontanano, si apre fra essi un nuovo bacino marino: le aree continentali circostanti si comportano come imponenti barriere che riducono l'ampiezza della circolazione delle acque. La materia organica può così conservarsi e, se l'evaporazione è superiore all'afflusso, insieme con la materia organica possono depositarsi strati evaporitici. Mentre i frammenti continentali continuano ad allontanarsi e il bacino marino a sprofondare, quest'ultimo si trasforma lentamente in un vero e proprio oceano. Gli strati di materia organica e di evaporiti vengono sepolti sotto imponenti accumuli sedimentati. Successivamente la materia organica si trasforma in petrolio e gli strati evaporitici si deformano in masse diapiriche a forma di duomo che costituiscono trappole per l'accumulo di petrolio. In definitiva si può affermare che lo studio dei cicli geochimici dei singoli elementi metallici, inquadrati nella teoria della tettonica delle placche, sembra poter fornire spiegazioni verosimili dei fenomeni di arricchimento e quindi della genesi dei giacimenti.
www.scribd.com/Baruhk
Le scienze della Terra
La distribuzione delle risorse minerarie e la possibilità di collegare i più famosi distretti metallogenici ai fenomeni caratteristici della tettonica delle zolle crostali portano a concludere che le ricerche di base nella geologia economica dovrebbero essere dirette alla individuazione e allo studio dei margini delle placche litosferiche, sia di quelle attualmente riconoscibili sia di quelle formatesi in epoche anteriori alla scissione della Pangea, di cui è stato possibile effettuare la ricostruzione. Ai margini convergenti e divergenti sono infatti ricollegabili le interazioni mantello-litosfera; la formazione di dorsali, di fosse e archi insulari; i fenomeni di assimilazione, anatessi, granitizzazione e metallizzazione; infine, le condizioni di accumulo dei giacimenti di idrocarburi e di potenziali notevoli di energia geotermica, come accade nella regione dell' Afar (in Etiopia) e in Islanda.·
* Esprimo qui i miei più vivi ringraziamenti alla dott.ssa Roberta Giuliani che ha validamente collaborato all'elaborazione di questa sintesi.
www.scribd.com/Baruhk
CAPITOLO TREDICESIMO
La storia della scienza DI ENRICO BELLONE
I
· PREMESSA
L'insieme delle discipline che si raggruppano sotto la voce storia della scienza è molto sensibile, per la sua stessa natura, ai mutamenti di prospettiva che si realizzano nelle singole scienze e in quei settori della ricerca filosofica che indagano sulla teoria della conoscenza. Tale sensibilità si è fatta particolarmente acuta, negli ultimi quarant'anni, sotto la spinta di vari fattori. Nel nostro secolo si sono accelerati quei processi di specializzazione delle scienze matematiche e sperimentali che erano ormai in atto sin dai tempi della prima rivoluzione scientifica d'Occidente. Questa accelerazione ha reso sempre più difficile, per gli intellettuali, il soddisfacimento del tradizionale compito di cogliere le linee generali dello sviluppo scientifico e tecnico: un compito che era stato usualmente affrontato attraverso la meditazione storica e filosofica sull'opera di scienziati come Copernico, Galilei, Harvey, Cartesio, Boyle e Newton, ma che, attorno alla metà del Novecento, s'era arricchito di nuovi ostacoli. Ben più complesse di quelle tradizionalmente connesse alla rivoluzione scientifica del Cinquecento e del Seicento erano infatti, negli anni quaranta e cinquanta del nostro secolo, le conoscenze di cui un intellettuale doveva disporre al fine di riflettere sugli scritti di un matematico come Elie Cartan, di un chimico come Linus Pauling o di un fisico teorico come Paul Maurice Adrien Dirac. Che cosa precisamente poteva allora fare, attorno alla metà del Novecento, una persona colta che avesse nutrito il ragionevole desiderio di capire quanto stava accadendo nella scienza che gli era contemporanea? Furono suggerite, sulla base dell' esperienza già accumulatasi con gli studi avviati grazie alle indagini di un Mach o di un Duhem, alcune soluzioni di matrice storiografica. In buona parte quelle soluzioni avevano in comune il principio regolatore secondo cui le questioni degne di interesse storico non poggiavano unicamente sulle specifiche strategie algoritmiche di una teoria fisica o sulle raffinate tecniche messe in atto in un laboratorio di chimica. I veri problemi, alla luce di quel principio, stavano anche - e, spesso, soprattutto - nelle dinamiche culturali che la ricerca storica avrebbe dovuto ricostruire per mezzo di accurate e ben documentate analisi da
www.scribd.com/Baruhk
La storia della scienza
svolgere su concetti generali. Questi concetti rinviavano lo storico ai vincoli metodologici e alle premesse filosofiche della prassi scientifica: concetti, dunque, che già figuravano sotto voci globali come teoria, esperimento, determinismo e indeterminismo, meccanicismo, legge di natura, razionalità, simmetria. Nello stesso tempo, però, anche la dinamica di tali concetti era di per sé insufficiente a illuminare l'intricata evoluzione del pensiero scientifico. Occorreva infatti tenere conto di molte circostanze che su quest'ultima influivano: i mutamenti nelle istituzioni, i rapporti documentabili fra questioni di metodo e problemi culturali complessivi, le correlazioni che potevano emergere tra scienza, arte e politica, le esigenze che, in certi periodi storici, portavano alla luce nuove professioni. Sotto queste molteplici spinte si formava un genere specifico di storico della scienza, il quale non era solo storico dell'astronomia o della biologia, ma diventava storico delle idee, del pensiero scientifico, della cultura. Situando se stesso al di sopra delle tecniche e delle specializzazioni, egli idealmente collocava le proprie ricerche in quelle zone del pensiero dalle cui sommità era lecito contemplare la scienza nella sua unitarietà e attribuirle un senso che sembrava mascherato dal proliferare delle specializzazioni. Gli indirizzi di ricerca storica che in tal modo nascevano, erano guidati da grandi esempi: i saggi di Arthur Lovejoy sulla storia delle idee, le ricerche di Alexander Koyré su Galilei, Keplero e Newton, il farsi della scienza secondo Alistair Crombie o l'Harvey di Walter Pagel, pur essendo tra loro diversi come impostazione generale, avevano avuto il merito indiscutibile di sottolineare con efficacia il tema che lo stesso Crombie ha voluto ricordare scrivendo, nel 1990, che «la storia della scienza è una parte integrale della storia della cultura intellettuale». Un tema centrale, certo: gli esempi ora citati invitavano gli storici a fare con esso i conti entro prospettive di studio che volevano far luce sull'idea di legge di natura e sulle modalità con cui quell'idea era accettata o criticata, e non solo sui contenuti di una particolare legge di natura interna a una particolare disciplina scientifica; subordinavano l'emergere della teoria galileiana sul moto o delle argomentazioni di Harvey sulla circolazione del sangue all'affermarsi, rispettivamente, di un metodo ispirantesi a forme di platonismo o di convinzioni di derivazione aristotelica, e non solo alla raccolta in laboratorio di dati precisi sulla caduta dei gravi o a osservazioni in campo anatomico e fisiologico; sottolineavano l'importanza degli studi da condurre sugli stili logicamente strutturati che sono all'opera in un singolo settore della matematica o di una scienza sperimentale. Un tema centrale anche sotto un altro profilo: quello che, grazie alle documentabili interazioni tra pensiero scientifico e cultura diffusa, stimolava lo storico della scienza ad abbandonare le obsolete immagini che, nel passato, avevano spesso accreditato l'immagine di una scienza che sorgeva quasi di colpo dalle rovine dei saperi magici e dei pregiudizi metafisici, e poi progrediva in totale autonomia rispetto ai movimenti intellettuali storicamente determinati. Non si poteva più sostenere, 470
www.scribd.com/Baruhk
La storia della scienza
insomma, che Galilei era soltanto un raccoglitore di fatti e Keplero soltanto un paziente calcolatore, Newton il prototipo puro della moderna ragione scientifica e Darwin un ostinato osservatore di fringuelli. Era importantissimo per lo storico della scienza che Galilei sapesse di musica e Keplero avesse inclinazioni verso filosofie misticheggianti, che Newton dedicasse moltissimo tempo a testi ed esperimenti alchemici o a letture teologiche e Darwin fosse comprensibile all'interno di storie intellettuali che non riguardavano soltanto gli animali. È impossibile riassumere in poche parole l'euristica di quel movimento ideale che stava prosperando in questi orientamenti della storiografia della scienza. Sicuramente essi stabilivano però due punti fermi. In primo luogo ribadivano, con la forza della documentazione, che la prassi scientifica era innervata nell'intelletto generale e non poteva quindi essere descritta come prassi totalmente autonoma da quanto nell'intelletto generale accadeva. In secondo luogo essi sottolineavano, di conseguenza, che la conoscenza matematica e sperimentale dei fenomeni naturali non era solo knowledge o solo belief II
· PER
UNA
STORIA
DELLE
SCIENZE
Restava tuttavia aperta la questione del peso relativo che era comunque esercitato, nella prassi scientifica, dalle procedure inferenziali governate da settori sempre più astratti della matematica e dal potenziamento delle tecniche che rendevano disponibili, nei laboratori, strumenti di misura sempre più sofisticati. Diventava difficile, attorno alla metà del Novecento, sottovalutare quel peso con tesi che, non di rado, riducevano gli apparati formali della deduzione matematica a forme di raffinata ma arida stenografia, e facevano rientrare i manufatti di laboratorio in docili strumenti materiali di cui la ragione umana si serviva, in modo del tutto intenzionale, con il solo fine di controllare ipotesi ben formulate e senza mai incontrare sorprese degne di nota, o scoperte che sfuggissero alle aspettative degli sperimentatori. Le difficoltà erano proprio situate nella storia della crescita delle conoscenze scientifiche, e diventavano particolarmente manifeste quando si studiava la dinamica delle scienze cosiddette dure. Nel Novecento si erano affermate teorie in cui la matematizzazione aveva assunto un ruolo gigantesco e gli utensili di laboratorio avevano consentito di spalancare orizzonti stupefacenti. La consapevolezza di tale stato di cose non era interamente riassorbibile nei pur raffinati quadri concettuali di una attenta ed erudita storia delle idee e del pensiero scientifico, ma stimolava la formazione di nuovi sistemi di riferimento. È sufficiente, per illustrare la situazione che sotto questo aspetto si stava realizzando in ambito storiografico, ricordare due casi esemplari dai quali traspariva come la succitata consapevolezza avesse conseguenze di rilievo anche per quanto riguardava taluni problemi della scienza del passato che una buona parte della comu471
www.scribd.com/Baruhk
La storia della scienza
nità degli storici era propensa a vedere come sostanzialmente risolti. Il primo riguarda l'intervento di Clifford Truesdell, realizzatosi tra il 1955 e il 1968, sull'opera di Eulero e sulla storia della meccanica del Settecento. Il secondo è connesso con gli studi che, all'inizio degli anni settanta, furono avviati da Stillman Drake sulle procedure sperimentali di Galilei. Negli anni cinquanta e sessanta Truesdell fu in grado di demolire, documenti alla mano, una tesi che risaliva agli studi di Mach sulla storia della meccanica e che aveva esercitato una influenza ancor oggi difficile da valutare. La tesi dichiarava, grosso modo, che l'intera meccanica classica era sorta da un nucleo completo di saperi fisico-matematici depositati da Newton nei Principia. Una implicazione forte della tesi era quella per cui lo svolgersi della teoria del moto, durante il Settecento e l'Ottocento, era da interpretare come una sorta di esercitazione formale attorno a leggi già sostanzialmente codificate in modo newtoniano. Alla luce rassicurante di questa implicazione sembrava che quasi tutta la fisica settecentesca e ottocentesca ricadesse sotto l'egida di quella categoria del senso comune che va sotto il nome di meccanicismo e che, per non poche persone colte, è ancora oggi in grado di riassumere in se stessa l'intera ragione cosiddetta classica. Questo punto di vista diventava però insostenibile se lo storico approfondiva le indagini su una figura settecentesca come quella di Eulero. L'impiego di sistemi deduttivi matematizzati, con Eulero, era andato ben al di là dei Principia, e non era affatto spiegabile con qualche rappresentazione strumentalista degli algoritmi nella cui cornice questi ultimi fossero machianamente visti non come produttori di conoscenza ma come riassunti formalizzati di conoscenze empiriche. Veniva in tal modo ad aprirsi una linea di ricerca del tutto nuova che suggeriva agli storici di cimentarsi, in quanto storici della matematica e della fisica, nella ricostruzione puntuale di un ramo portante della scienza del Settecento e dell'Ottocento. Il Settecento non era più soltanto un secolo di complesse vicissitudini illuministiche sul terreno di un newtonianesimo bene assestato che alimentava esercitazioni di tipo tecnico attorno a una fisica già tutta incisa nei Principia, ma si trasformava in un secolo innovatore per la conoscenza dei fenomeni naturali grazie all'intervento decisivo di potenti sistemi formalizzati. La storia della matematica e delle sue applicazioni così assumeva una dignità e una importanza che, al di là delle intenzioni dei migliori storici delle idee e del pensiero scientifico, si erano affievolite quando s'era creduto di vedere, nel Settecento e nell'Ottocento, l'egemonia solenne del meccanicismo sui travagli interni alle singole discipline, e s'era pertanto deciso che i genuini problemi interpretativi fossero da individuare negli apparati metodologici e non nelle strategie particolari di ciascun ramo della scienza. Prendeva l'avvio, con i lavori di Truesdell, un processo di vera e propria distruzione di una immagine della scienza che aveva privilegiato le cosiddette fonti filosofiche della rivoluzione copernicana, galileiana e newtoniana, ridotto la matematica 472
www.scribd.com/Baruhk
La storia della scienza
a puro strumento, appiattito la scienza settecentesca e ottocentesca sotto un meccanicismo di maniera, attribuito a una crisi del metodo le presunte patologie di una scienza classica che godeva invece di ottima salute e preparava il sorgere della nuova scienza del Novecento. La questione galileiana, dal suo canto, sembrava risolta per lo meno sotto un aspetto rilevante. S'era infatti diffusa, dopo Koyré, l'opinione che gli esperimenti descritti da Galilei non fossero mai stati realizzati in termini effettivamente galileiani ma avessero invece svolto la funzione metodologica tipica dei cosiddetti «esperimenti mentali». Le conseguenze di tale opinione erano state - e continuano a essere - di notevole importanza, se non altro in quanto avevano contribuito (e contribuiscono) a consolidare il punto di vista che gli scienziati siano creature dotate soltanto di stati mentali e praticamente esentabili dall'agire sulla natura con strumenti. Secondo questo punto di vista era quasi ovvio che certi manufatti, quali il telescopio, il microscopio, il piano inclinato o l'orologio ad acqua, e certe tecniche, come quelle utilizzate da Malpighi nella preparazione di campioni da sottoporre ad analisi microscopica, non avessero poi svolto un ruolo decisivo nelle trasformazioni seicentesche in seno all'astronomia, alle scienze mediche e biologiche o alla fisica. Già nel 1961 Thomas Settle aveva mostrato che le misure galileiane con piani inclinati e orologi ad acqua erano, contrariamente all'autorevole opinione di Koyré, riproducibili in modo conforme alle esigenze poste da Galilei: non risulta, però, che l'indagine pionieristica di Settle abbia creato gravi preoccupazioni fra quegli storici del pensiero scientifico che volentieri sorridono di ogni approccio, a loro avviso, sistematicamente inquinato dallo scientismo. li risultato ottenuto da Settle era, comunque, un importante indizio che si concretizzò quando, tra il 1975 e il 1979, Drake volle cimentarsi con un gruppo di manoscritti galileiani che sino ad allora erano stati valutati come indecifrabili o privi di interesse. Eppure, dopo l'interpretazione fornita da Drake, e malgrado l'obiezione di Pierre Costabel in base alla quale quei fogli galileiani null'altro erano se non segni di «una catena spezzata di pensieri», i manoscritti in questione offrivano informazioni sufficienti a suggerire il punto di vista secondo cui Galilei non solo aveva fatto molte misure, ma le aveva, soprattutto, fatte molto bene. Non si trattava di esperimenti mentali sotto le norme di un metodo incline a porre un ideale platonico sopra ogni cosa, ma esperimenti concreti e tali da porre una base empirica ampia su cui far poggiare la nuova meccanica. Venivano in tal modo alla luce possibilità interpretative che non si limitavano a rivalutare la necessità che uno storico della scienza prestasse grande attenzione alle strutture interne ai sistemi ipotetico-deduttivi o alle modalità tecniche della sperimentazione, ma suscitavano aspettative nuove e globali per un ripensamento sia delle origini della scienza moderna, sia dei processi in atto nella scienza contemporanea. 473
www.scribd.com/Baruhk
La storia della scienza III · L'APPROCCIO
SOCIOLOGICO
Accanto agli stimoli che emergevano nell'affinarsi della storia delle idee e del pensiero scientifico e nel precisarsi dei compiti di una storia delle singole discipline matematiche e naturali, altre questioni si facevano strada in quanto la prassi scientifica del Novecento era correlata al fatto che le istituzioni, al cui interno le ricerche si realizzavano, andavano assumendo dimensioni macroscopiche sotto il profilo dei finanziamenti e del numero degli addetti ai lavori. Questioni nuove, se si pensa alle dimensioni relativamente modeste che, in confronto, tali istituzioni avevano avuto in passato. Era quindi giustificata la pressione culturale affinché, negli anni in cui si stava formando la cosiddetta big science, fiorissero ricerche di matrice sociologica sulla produzione di conoscenza scientifica e sull'impatto che quest'ultima aveva sulla società. Anche in questo settore si ebbero studi pionieristici di grande rilievo, come quelli esemplari di Robert Merton. La sociologia della scienza, già sul finire degli anni sessanta, aveva un ruolo preciso e scopi ben definiti, e si presentava sulla scena come disciplina complementare rispetto alla storia del pensiero scientifico, delle idee, della cultura, e alla storia delle singole scienze. La scuola sociologica di Merton non intendeva certamente sostituirsi agli approcci storici, poiché era ben lontana dalla tentazione di ridurre la conoscenza scientifica in contesti dove trionfassero il relativismo radicale, il nichilismo epistemologico o le fantasiose congetture secondo le quali non esiste alcuna differenza rilevante tra il comizio domenicale di un uomo politico e un trattato di teoria delle equazioni differenziali. Eppure, proprio negli anni sessanta si verificarono, in seno alla ricerca filosofica sulla scienza, sommovimenti che ampiamente influenzarono il terreno dei rapporti tra sociologia e storia. Un momento cruciale, sotto l'aspetto che è qui interessante, fu quello caratterizzato dalle critiche che investirono, in quegli anni, le epistemologie di stampo razionalista e che portarono alla diffusione di libri influenti come quello di Thomas Kuhn sulle rivoluzioni scientifiche, al quale fece ben presto seguito un altro testo ad ampia diffusione che Pau! Feyerabend dedicò alla critica della metodologia di ispirazione popperiana. Le radicali posizioni assunte da Kuhn nei confronti di Popper non deri~avano da divergenze di natura tecnica su problemi specifici di teoria della conoscenza. Come intelligentemente aveva notato Imre Lakatos, quelle divergenze erano invece innescate da «valori intellettuali di fondo». Per Popper, infatti, la scienza era conoscenza soggetta a criteri di verità ed era ragionevole parlare di evoluzione della scienza. Per Kuhn, invece, non esisteva alcun progresso conoscitivo e la verità si fondava sul potere: «Per Popper - scriveva Lakatos - il mutamento scientifico è razionale o per lo meno razionalmente ricostruibile e ricade nell'ambito della logica della scoperta. Per Kuhn il mutamento scientifico - da un "paradigma" a un altro - è una conversione mistica che non è, e non può essere, governata da regole razionali e che ricade totalmente nell'ambito 474
www.scribd.com/Baruhk
La storia della scienza
della psicologia (sociale) della scoperta. Il mutamento scientifico è una specie di conversione religiosa ». Quelle dispute influenzarono in varie forme la storiografia della scienza e la sociologia della scienza. È ragionevole pensare che l'influenza più rilevante sia stata quella che ha portato al programma che, nei nostri giorni, è noto sotto la sigla SSK (Sociology o/ Scientz/ic Knowledge). Di quest'ultimo approccio dovrò a lungo parlare nel seguito. IV ·
LA
REGOLA
DI
SARTON
Ora, pero, e opportuno riprendere da capo il filo di queste note per riassumere una tesi centrale per ogni approccio storiografico o sociologico alla conoscenza scientifica: la tesi che, agli inizi degli anni trenta, fu enunciata e difesa da George Sarton. In rapporto a quella tesi verranno valutate, nel seguito, le principali tendenze oggi presenti nel settore della storia della scienza. Molti decenni sono trascorsi da quando, nel 1930, Sarton sostenne che la storia della scienza era una disciplina di base ed elencò i requisiti indispensabili per insegnarla in forme fruttuose. La virtù principale della storia della scienza emergeva per contrasto, a suo avviso, non appena ci si rendeva pienamente conto del fatto che « il sistema educativo è organizzato in modo così stupido da far sì che le questioni scientifiche e quelle cosiddette "culturali" si escludono reciprocamente, invece d'essere intese in armonia»: la storia della scienza era l'unico ponte che poteva consentire un rapporto positivo fra le due aree. Doveva tuttavia trattarsi d'un ponte ben disegnato e poggiato su fondamenta sicure. Sarton suggeriva, pertanto, di provvedere alla formazione di ottimi architetti, ovvero di storici della scienza che fossero professionalmente dotati di un gruppo specifico di competenze. L'elenco delle competenze era breve ma denso. Uno storico della scienza doveva disporre di solide conoscenze in un dato settore della ricerca e nella storia di quest'ultimo. In questo senso uno storico della scienza era uno studioso che, ad esempio, sapeva di fisica e di storia della fisica. Secondo Sarton, però, questa caratterizzazione era necessaria ma non sufficiente. Per essere davvero uno storico della scienza, il nostro studioso avrebbe dovuto avere competenze in altre due discipline scientifiche e nella loro storia, con la clausola per cui una di queste discipline fosse da individuare in aree abbastanza lontane da quella principale. Lo storico della scienza che accentrava i propri interessi nella storia della fisica era da Sarton raffigurato, sempre a titolo d'esempio, come un intellettuale che sapeva muoversi bene in astronomia e biologia, in storia dell'astronomia e storia della biologia. Lo studioso così delineato avrebbe poi avuto bisogno, secondo la regola di Sarton, di conoscere la storia generale e di possedere un sapere specialistico a proposito di determinati periodi di quest'ultima, di padroneggiare la metodologia della ricerca storica e di avere familiarità con l'epistemologia e la logica. 475
www.scribd.com/Baruhk
La storia della scienza
Una regola severa, dunque, e difficile da rispettare: commisurata, a ogni modo, con l'ambizione che stava a monte, e cioè con la collocazione della storia della scienza, in posizione strategica, nel progetto culturale finalizzato a rivoluzionare una organizzazione del sapere che, a parere di Sarton, era così irrazionale da dover essere qualificata come stupida. La regola di Sarton non è tuttavia riducibile a una norma etica posta a salvaguardia di una disciplina che ancora stentava, in quegli anni, a trovar posto nel sistema educativo. Sarton, infatti, enunciava la sua lista di competenze sulla base di un giudizio relativo alla posizione che la scienza aveva nella cultura complessiva della specie umana. La storia della scienza era sartonianamente vista come nucleo centrale della storia della civilizzazione: di qui la necessità di preparare una « rivoluzione totale» del sistema educativo, così da spezzare quel circolo vizioso nelle cui spire la conoscenza scientifica non era apprezzata come forma della cultura ma veniva declassata nel contesto della pura tecnica. La scienza appariva a Sarton come modalità culturale in quanto conquista razionale della verità oggettiva circa il mondo reale. Tutti gli esseri umani dovevano pertanto imparare a essere «leali verso la verità», e la storia della scienza era, sotto questo profilo, un terreno prezioso. Sarton non utilizzava un criterio obsoleto di verità scientifica. La scienza, nelle Colver Lectures, era una prassi creativa come l'arte. La creatività, però, non era l'unico segno distintivo della ricerca della verità sul mondo naturale. In una lettera a un amico, scritta nel 1935, Sarton sosteneva che gli esseri umani si distinguono dagli altri animali perché sanno creare valori come la bellezza, la giustizia e la verità. La storia di queste attività creative era, dunque, la parte più interessante dell'intera storia uinana. Ma la peculiarità dell'attività scientifica stava nella circostanza per cui la scienza non era solo creativa ma era anche cumulativa. L'immagine sartoniana di tale peculiarità era così espressa: «I nostri artisti non sono più grandi di quelli del passato, i nostri santi non sono migliori di quelli già vissuti, ma i nostri scienziati possiedono indubbiamente una conoscenza maggiore. Michelangelo sta sulle spalle di Fidia, ma ciò non lo rende in alcun modo più alto. Newton, invece, sta sulle spalle di Galilei, e proprio per questa ragione egli può vedere più lontano ». 1 Creatività e accumulazione: pressione verso nuove conoscenze e acquisizione di saperi consolidati. Ciò, tuttavia, non portava a una crescita cumulativa di tipo banale, perché, come si leggeva nelle Colver Lectures, la ricerca della verità si realizzava soltanto nella forma sobria di« immagini approssimate della realtà» e si scontrava sempre con un mare di imprevedibili anomalie. Non a caso Sarton ricordava una allo-
r La lettera è riportata da Robert Merton nella presentazione al volume The history o/ science
and new humanism (I93I), contenente i testi delle Lectures.
www.scribd.com/Baruhk
La storia della scienza
cuzione che, sul finire dell'Ottocento, Lord Kelvin aveva preparato al fine di esprimere un giudizio sulla propria attività pluridecennale di scienziato: Lord Kelvin, accettando la sfida delle nuove conoscenze che erano emerse, aveva onestamente ammesso il proprio fallimento. La fallibilità nella ricerca del vero non incrinava dunque l'idea centrale di progresso, ma era uno stimolo verso la realizzazione, nella storia della scienza, di immagini più raffinate dello sviluppo conoscitivo. La scienza, nelle parole di Sarton, non viveva in una sorta di vuoto politico e sociale. Essa, tuttavia, cresceva come se fosse dotata di una vita sua propria. Non si estendeva come un edificio, mattone su mattone, ma s'innalzava come un albero. E, come un albero, dipendeva senza dubbio dall'ambiente che la ospitava: ma «la causa principale della crescita è nell'albero, non all'esterno». Un'evoluzione continua, quindi, e relativamente autonoma rispetto alle azioni dei singoli individui. Sarton non era cieco di fronte all'evidenza storica dei rapidi mutamenti, dei « balzi occasionali » o delle grandi sintesi, ma li collocava in una crescita stazionaria, lenta e irresistibile. Certo: la natura di tale crescita non era evidente a coloro che attaccavano la scienza come fonte dei loro mali o che si erano illusi di trovare in essa la soluzione definitiva di ogni umano problema. Consapevole di vivere un periodo di crisi culturale e sociale quanto mai acuta, Sarton suggeriva ai propri contemporanei una via d'uscita che consisteva nel ricercare i mezzi per integrare la scienza nel sapere diffuso e per respingere la tentazione di !asciarla crescere come uno strumento estraneo all'uomo. E proprio qui si collocava la funzione basilare della storia della scienza. Una regola severa e un compito alto, come si vede. La regola e il compito non erano tuttavia chimerici. Chi apprezza gli scritti storici di un Gerald Holton su Albert Einstein o di un Richard Westfall su Isaac Newton si rende agevolmente conto che il punto di vista di Sarton era saggio e realistico. In quanto segue cercherò appunto di far vedere che molti versanti dell'ideale sartoniano, così come furono esposti nel lontano 1930, sono ancora oggi perseguibili, a condizione di fare i dovuti conti con un gruppo di questioni aperte. V
• STORIA
DELLA
SCIENZA
E
STORIA
DEGLI
SCIENZIATI
La prima questione riguarda la legittimità o meno di distinguere tra storia della scienza e storia degli scienziati. In quanto è una forma dell'attività umana, la produzione di conoscenza scientifica si realizza attraverso l'operato di individui dotati di specifiche competenze. Ogni produttore di scienza, in quanto abbia lasciato segni delle proprie azioni, può dunque essere studiato come un agente che ha esibito un comportamento documentabile in forme più o meno estese e più o meno affidabili. Sembra pertanto ovvio che la storia della scienza sia la storia degli scienziati. Sorge tuttavia un problema non appena ci si chiede quali siano i documenti rilevanti ai fini di una corretta ricostruzione delle azioni compiute da uno scien477
www.scribd.com/Baruhk
La storia della scienza
ziato. E il problema è cospicuo in quanto non è risolubile dichiarando che tutti i documenti sono egualmente rilevanti. Rispetto ai fini che lo storico persegue, infatti, alcuni documenti sono più importanti di altri. In che senso è vero che esistono differenze di peso tra i documenti disponibili? Per rispondere a questa domanda supponiamo, a titolo d'esempio, di voler studiare le fonti che ci parlano di un grande tecnologo che è vissuto nella prima metà dell'Ottocento e che si chiama Sadi Carnot. Un primo gruppo di fonti ci trasmette informazioni sulle cause presumibili della morte prematura di Carnot. Un secondo gruppo, invece, è ricco di dati sulle opinioni di Carnot relative all'opportunità che la Francia si dotasse di macchine a vapore talmente potenti da permettere ai francesi di sconfiggere l'Inghilterra sul terreno della lotta economica. Un terzo gruppo contiene ipotesi, calcoli e tabelle numeriche che riguardano il funzionamento di una macchina termica ideale. Un quarto gruppo ci parla dell'atteggiamento di Carnot nei confronti del fratello Hyppolite. Un quinto gruppo può farci capire che esistevano precisi motivi affinché Carnot fosse stato chiamato Sadi. 2 Se abbiamo l'intenzione di sapere come mai Carnot dedicò parte del proprio tempo a stilare i documenti appartenenti al terzo gruppo, allora troviamo indizi leggendo le fonti catalogate nel secondo gruppo. Queste ultime, infatti, indicano che Carnot agiva secondo esplicite motivazioni: così stabiliamo una mutua dipendenza tra fonti diverse ed effettuiamo alcuni passi nella ricostruzione che abbiamo a cuore, poiché troviamo che Carnot studiò un determinato insieme di problemi scientifici e tecnici in quanto nutriva interessi documentabili nei settori dell'economia e della politica. La presenza di tali interessi è sufficiente per determinare l'agire intenzionale di Carnot nel campo della teoria delle macchine termiche, ma non è significativa per determinare la struttura della teoria e le sue implicazioni tecnologiche. Se desideriamo infatti sapere (e, in quanto storici, non possiamo essere immuni da un simile desiderio) come mai i documenti del terzo gruppo contengono certi calcoli e non altri, l'agire intenzionale della persona calcolante non spiega la struttura e gli esiti delle mosse in seno all'algoritmo. I calcoli ci si mostrano infatti come una sequenza di mosse che obbedisce a regole diverse da quelle che governano gli interessi verso l'economia di chi quei calcoli ha eseguito. È ragionevole porre la questione circa i motivi per cui quei calcoli sono così e così e non sono di tipo del tutto diverso? È ragionevole: altri studiosi di problemi connessi alla teoria dei fenomeni termici e al funzionamento di macchine a vapore ottenevano, in quei medesimi anni, risultati diversi da quelli che troviamo nelle pagine
2 E così via, come si desume dai lavqri pubblicati tra il 1971 e il 1980 da Robert Fox, Stephen
Brush, Truesdell e Bharatha, Pietro Redondi.
www.scribd.com/Baruhk
La storia della scienza
(a stampa e manoscritte) !asciateci da Carnot. E queste differenze non sono spiegabili come causate da errori o come esiti di motivazioni estranee alla struttura delle teorie in gioco. La base di partenza dei vari calcoli era una rete teorica standard che costituiva l'oggetto di insegnamento universitario e che era reperibile attraverso lo studio di pubblicazioni. Su quella base, però, potevano .essere costruite catene deduttive tra loro distinte, e Carnot ne sviluppò una molto particolare. Se analizziamo la struttura della catena elaborata da Carnot troviamo anche che essa non è perfetta: contiene anomalie irrisolte ed è qua e là puntellata con opinioni e congetture che, a posteriori, si sarebbero rivelate erronee (lo stesso Carnot individuò alcune anomalie e ne lasciò testimonianza in manoscritti che furono pubblicati anni dopo la sua morte). Eppure, alla fine della nostra analisi circoscritta al terzo gruppo di documenti, cogliamo in questi ultimi l'enunciato di una legge generale che Carnot seppe inferire sviluppando quei calcoli fatti così e così e non altrimenti. In conseguenza della nostra analisi, diciamo allora che Sadi Carnot scoprì quella legge. Nel dire questo siamo costretti ad ammettere che il contenuto della legge di Carnot non è deducibile dalle intenzioni di Carnot di aiutare la Francia a sconfiggere l'Inghilterra sul terreno dello sfruttamento dell'energia termica. Esiste certamente una correlazione fra quelle intenzioni e quella legge: ma è una correlazione debole, poiché ci aiuta soltanto a capire come mai Carnot decise di studiare un certo insieme di problemi scientifici. Potremmo sostenere, per descrivere questa correlazione debole, che essa è testimonianza del fatto che Carnot fu notevolmente influenzato dalla sua filosofia personale circa i destini della Francia. E così, però, ammetteremmo comunque che la legge di Carnot non è una conseguenza della filosofia personale di Carnot. Questa circostanza è di valore generale. Non possiamo infatti ricavare la legge di Galilei sulla caduta dei gravi dalle opinioni espresse da Galilei su Aristotele, Platone e Archimede, così come non possiamo dedurre i teoremi di Hamilton sul prodotto non commutativo dalle letture filosofiche da cui Hamilton aveva ricavato l'opinione che l'algebra fosse la scienza del tempo kantianamente inteso. Ciò non vuoi dire che per lo storico non siano interessanti le opinioni di Carnot circa la lotta economica tra le potenze europee, i punti di vista di Galilei a proposito di Archimede o dell'aristotelismo e le credenze di Hamilton relative alla nozione di tempo in Kant. Al contrario: quelle opinioni, quei punti di vista e quelle credenze sono ricostruibili sulla base di opportune documentazioni, e forniscono dati preziosi per chi desidera analizzare la vita di Carnot, di Galilei e di Hamilton. Ma l'attività svolta da Carnot, Galilei e Hamilton ci consegna, sempre su documenti, anche un gruppo di dati che sono non intenzionali rispetto alle opinioni, ai punti di vista e alle credenze. Di qui la legittimità di distinguere una storia della scienza, intesa come storia di problemi scientifici, da una storia degli scienziati, intesa come storia dei pensieri che i singoli scienziati esposero per iscritto a proposito dei problemi che intende479
www.scribd.com/Baruhk
La storia della scienza
vano risolvere. Questa distinzione, in poche parole, è la stessa che tutti ammettono nel constatare le differenze tra ciò che una persona crede di dover fare o d'aver già fatto, e ciò che essa farà in futuro o ha fatto nel passato. Una distinzione del genere consentirebbe di corroborare, per esempio, la tesi sartoniana secondo cui la scienza cresce come un albero per ragioni interne all'albero. Le ragioni dello sviluppo sarebbero allora da cercare, in tal caso, nella struttura delle teorie messe in campo, nel ruolo dei manufatti impiegati nei laboratori, nel rapporto fra previsioni teoriche e dati empirici, più che nelle opinioni che animano coloro che elaborano teorie o fanno misure. Le aspettative, le credenze personali e le intenzioni degli agenti della ricerca andrebbero allora analizzate come elementi costitutivi dell'ambiente in cui l'albero cresce: dopo di che spetterebbe allo storico il compito di ricostruire le eventuali interazioni tra una logica intrinseca allo sviluppo dell'albero e i fattori dominanti nella nicchia dove l'albero ha messo radici. Sotto questo aspetto è stato ad esempio realizzato il progetto di ricostruire tali iuterazioni in una cornice pluralistica che Paolo Rossi ha tracciato nei volumi sulla storia della scienza moderna e contemporanea (1988): un progetto finalizzato anche al superamento di quelle obsolete e fuorvianti dispute già criticate dallo stesso Rossi
(I ragni e le formiche, 1986). L'osservabilità delle interazioni implica l'osservabilità delle differenze tra storia della scienza e storia degli scienziati. Ma non è sufficiente che la differenza sia osservabile: essa richiede, infatti, d'essere spiegata. E tale richiesta, di necessità, rinvia lo storico a problemi teorici di storiografia. Veniamo così alla questione circa la possibilità stessa di distinguere fra « credenza » e « conoscenza». VI
·
CREDERE E
CONOSCERE:
MICROCONTESTI
La possibilità di distinguere fra «credenza» e «conoscenza» è, da sempre, al centro dell'indagine filosofica, ed è diventata particolarmente acuta dopo le ricerche compiute da David Hume sulla giustificabilità in senso stretto delle nostre conoscenze. L'esito di quelle ricerche è di natura scettica e porta a pensare che non esista propriamente una barriera ben tracciata fra belt'ef e knowledge. Un esito concreto, che non cessa di esistere anche se Hume diceva di lasciarsi alle spalle lo scetticismo quando usciva dal proprio studio, se molti scienziati mandano innanzi le proprie attività senza awertire un irresistibile bisogno di meditare sulle pagine humeane e se una parte non trascurabile di storici non crede di dover prendere sul serio il problema. In generale, infatti, il comportamento quotidiano degli esseri umani non dipende necessariamente dal fatto che essi sappiano o non sappiano che la Terra percorre orbite ellittiche attorno alla stella Sole, e i tonni nuotano benissimo senza aver mai studiato un manuale di idrodinamica, ma è comunque vero che la Terra ruota in un certo modo attorno al Sole e che i corpi si muovono nell'acqua in obbedienza ai canoni espressi da complicate equazioni differenziali.
www.scribd.com/Baruhk
La storia della scienza
Ne segue che non basta, per vivere tranquilli come storici della scienza, porre tra parentesi la faccenda della distinzione o meno fra storia della scienza e storia degli scienziati. Trattasi infatti d'una faccenda che investe direttamente la natura delle fonti, e non è saggio, in campo storiografico, lasciar troppa corda alla tentazione di cedere il tutto agli epistemologi con la motivazione, per altro ineccepibile, che I'a//aire è connesso alla distinguibilità o meno tra belie/ e knowledge. Andrebbe dunque ristabilita, sotto questo aspetto, la validità della raccomandazione di Sarton secondo cui uno storico della scienza deve sempre fare i conti con quanto accade in epistemologia: così che il singolo storico sia per lo meno consapevole, quando esplora una fonte e la interpreta, di agire sulla base di un modello storiografico più o meno sostenibile. 3 Questa necessità di consapevolezza s'è fatta particolarmente pressante nell'ultimo trentennio: oggi, la ricerca storiografica sulle scienze è realizzabile con una vasta gamma di modelli che si estende fra due posizioni fra loro contrapposte per quanto riguarda la linea di confine tra belief e knowledge. Per esemplificare la contrapposizione è sufficiente il riferimento a due testi dedicati all'opera scientifica di Albert Einstein: Sottile è il Signore di Abraham Pais e Einstein e la sua generazione di Lewis Feuer. Nei capitoli del lavoro di Pais si trovano dati di natura biografica sul padre della teoria della relatività, considerazioni sulla situazione sociale e politica negli anni in cui Einstein visse in Europa, digressioni sull'atteggiamento filosofico einsteiniano e accuratissime ricostruzioni delle sequenze di ragionamenti fisici e matematici che sono individuabili negli scritti scientifici del grande scienziato. La struttura del testo di Pais è tale che il lettore può ricavare conoscenze su svariati aspetti delle ricerche einsteiniane sui quanti, sulla relatività e sulla possibilità di sviluppare una teoria unificata: e si tratta, spesso, di aspetti di natura formale la cui effettiva comprensione richiede una non elementare cultura di sfondo in fisica. Pais non giustifica il proprio modo di procedere riconducendolo a un preciso modello storiografico, ma è sempre attento, in ogni pagina, a rispettare la distinzione fra problemi di fisica teorica e problemi di opinione, senza eliminare i nessi tra i primi e i secondi ma senza imporre il vincolo per cui il contenuto di un problema di fisica dei quanti diventerebbe la conseguenza di specifiche opinioni sul determinismo in generale, sulla causalità in generale o sulla conoscibilità del mondo in generale: Pais, insomma, lavora come se la scienza avesse uno spessore suo proprio. Nel libro di Feuer, invece, lo spessore della scienza einsteiniana e la struttura dei problemi fisici e matematici che la caratterizzano non sono in alcun modo pre-
3 ·Come risulta dalle rassegne curate, tra
il
1980 e il 1995, da George Rousseau e Roy Porter,
Pietro Corsi e Pau! Weindling, Enrico Bellone e Giuseppe Bruzzaniti, Giulio Barsanti.
www.scribd.com/Baruhk
La storia della scienza
senti: non v'è traccia delle problematiche interne alla natura della radiazione o alle interdipendenze tra campi gravitazionali e &eometria o al supporto empirico dhe corrobora le tesi einsteiniane sull'impulso del) fotone. Queste roblematiche, che per Pais sono basilari al fine di ricostruire l'opeta di Einstein, per Feuer non sono storicamente caratterizzate in alcun modo. 1 Feuer, infatti, persegue un fine completamente ;diverso /da quello di Pais. Per capire come mai Einstein fu spinto a elaborare la teoria g~nerale della relatività è necessario, nel libro di Pais, rintracciare le ragioni scientifidhe dell'impotenza della teoria ristretta nei confronti della questione gravitazionale. Lo stesso quesito, nel libro di Feuer, si enuncia e si risolve attraverso una dettagliata ricostruzione della «posizione emotiva e intellettuale che venne a costituire lo sfondo» della teoria einsteiniana della gravitazione. Come la relatività ristretta ebbe « un sostegno culturale primario » nel circolo di amici rivoluzionari che Einstein frequentò a Zurigo e a Berna e che discutevano con passione di Marx e di Mach, così la relatività generale trovò alimento nell'altro circolo di amici che Einstein frequentò a Praga e che era formato «da mistici e da intellettuali ebrei». Nel capitolo intitolato Le radici sociali della teoria della relatività di Einstein troviamo allora che « lo stato d'animo relativistico di Einstein» comincia ad attenuarsi sul finire della prima guerra mondiale, così che il pensiero del grande fisico cessa d'essere « isoemozionale con le tendenze rivoluzionarie». Una delle cause del mutamento fu l'azione di «una figura nebulosa » di matematico - un certo Minkowski Herman - che, contro i rivoluzionari relativisti, creò «l'immagine ossessiva dell'intero universo composto di linee-dimondo », derivandola da quella metafisica di Spinoza che certamente non poteva sfuggire a un matematico riducibile, socialmente parlando, a «un figlio del ghetto». Così, anche per Einstein, le inclinazioni filosofiche giovanili e rivoluzionarie si trasformano e si realizza la transizione decisiva verso la teoria generale della relatività: la transizione da David Hume a Baruch Spinoza, che Feuer intende come transizione dallo spirito rivoluzionario del relativismo (sic) a un atteggiamento da «conservatore generazionale». È il dio di Spinoza, allora, colui che fornisce a Einstein « un principio cosmico regolatore per la scelta delle ipotesi », « un principio regolatore per la scoperta delle leggi della natura». Non ricordo queste tesi per notare che, quando si parla della teoria einsteiniana della gravitazione, la scelta delle ipotesi e la scoperta delle leggi della natura coinvolgono altre circostanze oltre a quelle che sono riconducibili alla isoemozionalità, o per ribadire che nessuna credenza è più sciocca di quella che cerca assonanze culturali tra relativismo e teoria ristretta della relatività. Le ricordo invece perché esse sono quanto mai istruttive sia a proposito della distinzione tra belie/ e knowledge, sia a proposito di ciò che si può chiedere a una ricostruzione storica. Per quanto riguarda la distinzione, essa evapora poiché ciò che chiamiamo knowledge diventa, à la Feuer, un residuo tecnico e astorico di una dinamica culturale che si svolge interamente nel mondo del belief Non ha alcuna importanza,
www.scribd.com/Baruhk
La storia della scienza
in quest'ottica, l'osservazione critica di chi pretende che vengano esibite le sequenze di passi grazie alle quali, rispettivamente, uno stato emotivo basato su Hume, Marx e Mach genera gli algoritmi della relatività ristretta e uno stato emotivo centrato sulla metafisica di Spinoza approda invece alla teoria della gravitazione: l'ottica p rescelta, infatti, non nutre alcun interesse per queste sequenze. Non si tratta, per Feuer, di ricostruire le ragioni fisiche e matematiche per cui i campi gravitazionali sono fatti così e così, ma di ricostruire i motivi per cui Einstein credette di dover abbracciare il determinismo assoluto. La storia della scienza è storia dei pensieri dello scienziato, dove la parola « pensiero » è il nome degli stati d'animo del produttore di scienza: così predica Feuer. L'aspetto più notevole di questa forma di storiografia sta nella constatazione che, durante i decenni che videro emergere la teoria della relatività, altri parlanti, oltre a Einstein, erano di origine ebraica, leggevano Hume e Spinoza, provavano simpatie per Marx e Mach ma non scrivevano, a proposito del fotone o dei campi gravitazionali, le stesse pagine scritte da Einstein. Una spiegazione per questo fatto singolare non è tuttavia difficile da trovare. Basta riflettere su come, nel medesimo libro, Feuer ricostruisce quelle che furono, a suo avviso, le origini della teoria dei quanti. Il contesto esplicativo di Feuer ci rinvia, infatti, alle differenze tra il giovane Einstein e il giovane Niels Bohr. Il primo, come abbiamo visto, era un politico radicale « in lotta contro l'ordine costituito», squattrinato, inserito in un ambiente cosmopolita, nutrito di idee risalenti a Hume, Marx e Mach, melanconico lettore de I fratelli Karamazov. Il secondo, invece, era «un giovane bene accetto, un atleta adorato e popolare », bene inserito nella propria patria, cultore di letture kierkegaardiane e scopritore di un principio di complementarità in fisica che era affine, nel giudizio di Feuer, al «concetto di timore di Kierkegaard »: «il fisico, operando una scelta fra le rappresentazioni complementari, recitava un dramma kierkegaardiano nella teoria dei quanti». Feuer va inteso alla lettera quando indica il ruolo di Kierkegaard nella fisica di Bohr. Non si tratta di influenze più o meno qualitative, ma di determinazioni vere e proprie: la « struttura» stessa delle due ipotesi che Bohr pose a fondamento del modello quantizzato d'atomo del 1913 era « isomorfa » con le transizioni fra stadi dell'esistenza già descritte da Kierkegaard. È dunque chiara la tesi di Feuer: «Forse mai nella storia delle idee scientifiche due contemporanei di primo piano come Einstein e Bohr sono stati emotivamente e filosoficamente così diversi l'uno dall'altro. Essi rappresentarono due distinti fili conduttori intellettuali, o due linee isoemozionali della vita intellettuale europea che s'intersecarono saltuariamente, a volte soltanto tangenzialmente ». Due pensatori tra loro radicalmente diversi perché prodotti da due ambienti tra loro radicalmente diversi. E si noti che Feuer non invoca, nel riferirsi a «fili conduttori intellettuali» e a «linee isoemozionali », l'azione di uno spirito dell'epoca o di una situazione generale della cultura europea di quegli anni. Egli, invece, parla di microambienti culturali: per il giovane Einstein, un piccolo gruppo di amici rivoluzionari, e, per il
www.scribd.com/Baruhk
La storia della scienza
giovane Bohr, i dodici membri del circolo Ekliptika che, a Copenaghen, esprime i punti di vista di una «élite politica, sociale e intellettuale » permeata di fiducia in un futuro di «onorate e utili realizzazioni». Il modello storiografico così messo in campo intende ripercorrere lo sviluppo di quelle che Feuer chiama le «idee scientifiche» di un'epoca ma, in realtà, la ricostruzione riguarda le culture di microambienti determinati e l'attribuzione, a queste culture, del ruolo di cause per l'architettura di alcune fra le più potenti e generali teorie scientifiche mai costruite. Sotto questo aspetto il modello è potentemente causale, poiché, a partire da pochi libri discussi tra pochi parlanti e dalle situazioni sociopolitiche che quei minoritari filtravano attraverso conversazioni e azioni individuali, esso dovrebbe permettere di inferire la teoria ristretta della relatività, la teoria della gravitazione e le origini della meccanica dei quanti. Il modello, ovviamente, non presume di dedurre quelle teorie nei dettagli: lasciamo i dettagli agli specialisti, insomma, e concentriamo la nostra attenzione di storici sulle idee regolatrici il dio di Spinoza per la teoria generale della relatività e il concetto di timore secondo Kierkegaard per la meccanica quantica. Un modello gratificante, anche, perché sottintende che, al fine di capire il senso profondo della fisica relativistica e quantica e il significato complessivo della loro storia, non si debbano consultare aridi manuali sul calcolo tensoriale, sull' algebra delle matrici o sugli spazi di Hilbert. La questione che in tal modo si pone è tuttavia degna di nota, poiché gli apparati algoritmici restano nelle fonti documentarie e non scompaiono dall'orizzonte dello storico in funzione del modello che quest'ultimo ritiene di dover adottare. Come è possibile, infatti, che questo modello, nel privilegiare i singoli fili conduttori e i singoli microambienti come fattori causali nella genesi delle teorie scientifiche, sottovaluti i fattori matematici e fisici operanti in queste ultime al punto da non farne neppure oggetto di qualche nota erudita? La domanda è legittima anche perçhé, come si vede proprio dalle note al suo testo, Feuer è uno studioso che ha consultato una mole notevole di documenti. La chiave di lettura del mo~ello è individuabile nell'ultima pagina del libro, là dove l'autore dichiara di aver scritto un saggio finalizzato alla «comprensione delle attività degli scienziati visti come esseri umani». Nessuno può negare che tali attività siano documentate e nessuno può sostenere che esse siano prive di interesse per lo storico. Gli scienziati, infatti, sono esseri umani. Così, per esempio, ciascuno di essi ha, in media, l'abitudine ad avere un padre e a risentire di paterne influenze. È allora notevole sapere da Feuer che Bohr, liberandosi dall'influenza di un padre che adorava Goethe, passò dalla lettura di Goethe alla passione per Kierkegaard, così da liberarsi, anche, dalle prevenzioni che Goethe, come pensatore romantico, aveva nutrito nei confronti della matematica. Il modello di Feuer è, francamente, ambizioso. Esso, infatti, si regge su un pilastro così descritto: « La scienza della scienza, o, per essere più precisi, la sociolo-
www.scribd.com/Baruhk
La storia della scienza
gia degli uomini che cercano la verità, è essa stessa un ramo della sociologia teorica e il suo punto di vista centrale deve essere plasmato dalla filosofia del ricercatore.» Assai correttamente Feuer ricorda, in nota, che anche Friedrich Engels fece uso dell'espressione «scienza della scienza». Ebbene, anche alla luce di tale autodefinizione - scienza della scienza - non cessa di essere presente il quesito circa il ruolo storicamente svolto dalla matematica nell'opera di un Einstein o di un Bohr. Ma anche a questo quesito si trova una risposta, se accettiamo di passare dai modelli centrati su microcontesti a modelli dove entrano in gioco dei macrocontesti veri e propri. VII
· CREDERE
E
CONOSCERE:
MACROCONTESTI
I modelli causali a microcontesto non hanno dunque lo scopo di rappresentare lo sviluppo della conoscenza scientifica ma quello di ricostruire le condizioni necessarie affinché un singolo parlante agisca come scienziato. L'albero sartoniano, per questi modelli, non esiste come oggetto storico, e la separazione fra belie/ e knowledge non è di alcun interesse. Ovviamente questa modalità della ricostruzione storica è particolarmente manifesta nel caso della storia di quelle scienze, cosiddette dure, dove il ruolo della matematica è dominante in quanto appare carico di una euristica che guida la ricerca secondo regole tipicamente interne all'algoritmo utilizzato: non è agevole ridurre tali regole ad apparati di matrice puramente sociopolitica senza porre clausole ad hoc che coinvolgano fattori di difficile definizione o senza adottare stratagemmi strumentalisti che, a loro volta, richiedono comunque argomentazioni piuttosto complesse. Sembra dunque che la matematica, in quanto scienza e in quanto apparato teorico applicabile a gruppi di fenomeni naturali, costituisca in varie forme una presenza anomala e inquietante nella cornice dei modelli causali a microcontesto. Esiste tuttavia una modalità della ricerca storiografica che pone a se stessa proprio il compito di far svanire lo scandalo provocato dalla matematica. Questa modalità ha, di per se stessa, radici che affondano nella storia della filosofia, hanno gemmato con abbondanza nell'ambito del pensiero romantico, traggono nuovo alimento da letture particolarissime su pagine di Wittgenstein relative ai fondamenti della matematica e stanno attualmente esercitando un peso molto forte nei programmi della cosiddetta nuova storiografia della scienza. La nuova storiografia della scienza dichiara, tout court, la fine di ogni separazione tra belief e knowledge e la conseguente necessità di orientare le ricerche verso un obiettivo così riassumibile: «il contenuto della conoscenza scientifica deve essere spiegato mediante il suo contesto sociale». Stando così le cose il problema stesso dei concetti e dei loro significati dovrebbe perdere le sue connotazioni tradizionali, poiché, una volta che si ipotizzi una correlazione forte tra contesto sociale e contenuto della conoscenza scientifica, semplicemente succede che, tanto. per fare un
www.scribd.com/Baruhk
La storia della scienza
esempio chiarificatore, suggerito nel 1992 da Gerard de Vries, «il concetto "onda gravitazionale" dipende dalla comunità al cui interno si vive. Di conseguenza, ciò che un'"onda gravitazionale" è, dipende dalla comunità dei fisici». Il che, ovviamente, implica che altre comunità possano costruire significati diversi per quel concetto e che una decisione su quale sia il significato preferibile sia impossibile a farsi con un appello alla sperimentazione sul mondo: il mondo, infatti, è visto come costruzione umana in seno a comunità distinte di attori, e non abbiamo alcuna possibilità di accertare la verità nel senso obsoleto del termine. Questo modo di vedere le cose non può, quindi, che fare i conti (in modo definitivo) con la matematica e con la sua storia, per poi raccogliere tutti i frutti nei contesti di tutte le altre scienze. I conti con la matematica e con la sperimentazione non sono irti di ostacoli insuperabili quando si accettano, come fanno Shapin e Schaffer nel loro libro su Boyle e Hobbes, due tesi di fondo che riguardano, in generale, l'intero campo dell'inferenza possibile: la prima asserisce che la generazione della conoscenza «è un problema politico » e che, simmetricamente, « il problema dell'ordine politico implica sempre una soluzione del problema della conoscenza»; la seconda consiste nel citare, come motto, le seguenti parole tratte dalle osservazioni di Wittgenstein sui fondamenti della matematica: « Si può dire che le leggi dell'inferenza ci costringono: vale a dire, nello stesso senso in cui ci costringono le altre leggi della società umana. » L'unione delle due tesi porta a credere che il cosiddetto rigore di una inferenza scientifica non sia il segno di una logica governata da regole distinte da quelle che presiedono all'agire politico. Porta invece a credere che quel rigore, anziché essere una garanzia di autonomia rispetto ai desideri degli attori, sia una forma della coercizione sociale. Tornerò più avanti sul modello di Shapin e Schaffer: a questo punto, però, è opportuno precisare subito a quali esiti porti l'unione delle due tesi appena citate quando si affronta proprio il nodo della matematica. Il nodo è al centro di un saggio che David Bloor ha scritto nel 1976 per mostrare come, a suo avviso, «la matematica sia variabile, allo stesso modo dell'organizzazione della società », e per prospettare, di conseguenza, in che senso sia lecito parlare di una matematica «alternativa». Secondo Bloor non è stato valutato con la dovuta attenzione il punto di vista che Oswald Spengler, nel suo famoso libro dedicato al tramonto dell'Occidente, espresse scrivendo che « vi sono molteplici mondi di numeri perché vi sono molteplici civiltà». Un'attenzione che, significativamente, Bloor pensa abbia caratterizzato le riflessioni di Wittgenstein sui fondamenti stessi della matematica. L'idea che Bloor ha della coerenza interna alla matematica è che non di coerenza vera e propria si tratti, ma di una condotta finalizzata a ottenere il consenso e l'accordo in seno a una comunità socialmente determinata. Ma il consenso e l'accordo sono modalità della coercizione in seno alla comunità, tant'è che, per i membri di quest'ultima, una violazione delle norme che presiedono a determinati passaggi deduttivi entro
www.scribd.com/Baruhk
La storia della scienza
un calcolo assume le connotazioni punitive dell'errore e viene bollata in quanto priva di consenso. Una comunità che invece accettasse, per specifiche motivazioni di natura sociale e politica, una condotta ispirata alla «tolleranza cognitiva» (una comunità che, oserei dire, fosse più democratica di quelle che egemonizzano il mondo dei matematici), agirebbe in modo tale da regolare il gioco deduttivo secondo modalità alternative: la tolleranza di fronte ai presunti errori diventerebbe allora una «virtù matematica». Viviamo tuttavia in condizioni tali, secondo Bloor, da esserci abituati a soppesare in termini illusoriamente normativi i modelli storicamente determinati che agiscono come individuatori di errore, dimenticando sistematicamente che quei modelli sono, per l'appunto, storicamente determinati e basta. Dobbiamo allora prendere in considerazione una domanda precisa: «L'erroneità dei modelli istituzionalizzati di errore logico è uguale a quella degli errori individuali?». Nel cercare una risposta plausibile riusciamo a capire che solo un assolutista in campo morale è favorevole all'idea che esista davvero un «punto di vista basato sulla certezza», ovvero tale da indicare « chiaramente che cosa è giusto ». Per l'assolutista morale « ogni deviazione deve perciò essere sbagliata». n delinearsi di una morale alternativa induce ovviamente l'assolutista a descriverne i canoni come atti a generare un « comportamento criminale». Una corretta comprensione della matematica può essere dunque impostata solo a patto di abbandonare l'assolutismo e la sua inclinazione a istituzionalizzare certe modalità di rigore o di coerenza. In generale, dobbiamo pertanto imparare a pensare che «il mondo sarà cognitivamente e moralmente misto nella misura in cui lo è socialmente», dimenticando i tradizionali appelli a qualche «vaga Realtà matematica» e cercando, invece, i vincoli naturali e sociali che generano l'uniformità e il consenso in matematica, per spiegarli «in termini causali». In tal modo Bloor può far leva su esempi di storia della matematica per mostrare che, ad esempio, uno storico della matematica che analizza l'aritmetica di Diofanto e si sorprende di fronte a certe tecniche inferenziali, si comporta alla stregua di un agente il quale percepisce l'anomalia che consiste nel venire «a contatto con atteggiamenti morali, politici, estetici o sociali» che non gli sono familiari: lo storico, insomma, prova una sensazione analoga a quella che si avverte quando si tenta di entrare in «un gruppo sociale estraneo». Non esiste infatti, nel mondo matematico, una «sfera della necessità», nel senso che la vera sfera è « la sfera della società». Con questa procedura, che è fondata sull'ipotesi di poter fornire una spiegazione causale per l'emergenza di criteri sociopolitici di coerenza atti a regolare la deduzione, i conti con la matematica pura e applicata sono chiusi. E tale chiusura implica, a maggior ragione, che la spiegazione causale suggerita da Bloor sia valida per la comprensione storica dei criteri atti a regolare quelle inferenze meno costrittive che sono operanti in scienze meno dure della matematica. Non è il caso di rivolgersi soltanto a microcontesti à la Feuer, anche se questi sono utili: esiste la
www.scribd.com/Baruhk
La storia della scienza
possibilità di convogliare la ricerca storica su macrocontesti, una volta assodato che le norme statutarie che agiscono in seno a comunità di scienziati sono causate da codici di comportamento politico molto più generali, e viceversa. Si fa così strada, per Shapin e Schaffer, l'opportunità di studiare il programma sperimentale di Robert Boyle alla luce delle trasformazioni necessarie per codificare un ordine politico nella società inglese della seconda metà del Seicento. Usando i filtri del modello causale a macrocontesto lo storico deve trafficare attorno al seguente problema: come è possibile che Boyle, nell'ambito delle seicentesche dispute sul vuoto e sulla natura della pressione atmosferica, abbia avuto successo utilizzando i risultati resi possibili dall'uso sistematico della sua celeberrima pompa? Una risposta di tipo tradizionale potrebbe essere enunciata affermando che la vittoria di Boyle fu dovuta al trionfo di una strategia conoscitiva basata sull'evidenza empirica di gruppi riproducibili di dati di laboratorio: nessuna critica, fra quelle che furono rivolte contro Boyle, era in grado di negare quell'evidenza. Una risposta del genere, però, sarebbe ideologicamente regolata da una credenza quanto mai discutibile: la credenza secondo cui il consenso attorno a gruppi riproducibili di dati di laboratorio è il necessario esito di una logica intrinseca alla ricerca scientifica. Ma ciò vorrebbe dire che si sta parlando di forme di consenso attorno all'opinione che i dati di fatto siano uno specchio della natura. E, a proposito di tale opinione, i dubbi sono più che mai ampi e sottili. Sin dalle prime righe del loro libro Shapin e Schaffer asseriscono la necessità di rispondere a domande ben poste (del tipo: «Che cos'è un esperimento?») che stanno a valle della domanda centrale: «Perché si compiono esperimenti al fine di attingere le verità scientifiche? ». Le risposte che il loro modello offre sono audaci, e vale la pena di soffermarcisi un poco, così da capire come mai Shapin e Schaffer abbraccino senza riserve l'opinione secondo cui il metodo scientifico rappresenterebbe «la cristallizzazione di forme di organizzazione sociale» e costituirebbe «un mezzo per regolare l'interazione sociale all'interno della comunità scientifica». Una prima risposta del modello riguarda direttamente la nozione di «dato di fatto». Nella strategia sperimentale di Boyle i dati di fatto «erano fabbricati a macchina » per mezzo della pompa pneumatica: una macchina che, analogamente al telescopio e al microscopio, era progettata per ampliare i sensi. Le nuove macchine, dunque, « disciplinavano l'osservazione sensibile controllandone l'accesso», e proprio l'accesso diventava un problema poiché le macchine erano poche. Occorreva pertanto renderle operanti in luoghi pubblici al fine di garantire che un certo numero di osservatori potesse testimoniare del buon esito degli esperimenti. Tutto ciò, a sua volta, coinvolgeva una congerie di pratiche sociali e linguistiche; dunque quando Shapin e Schaffer scrivono di dati « fabbricati a macchina » intendono parlare di dati « generati » da una prassi. Il modello, senza mezzi termini, parla proprio di «pratiche sociali e linguistiche che Boyle raccomandava per generare dati di fatto ».
www.scribd.com/Baruhk
La storia della scienza
Una volta instaurate tali pratiche, si generano dunque dei dati di fatto e poi, allo scopo di generare anche il consenso, si sostiene che il dato di fatto non è generato: il dato di fatto viene posto a fondamento della conoscenza, negando che esso sia opera dell'uomo e facendo sì che esso appaia come oggettivato. Per raggiungere tale scopo si agisce con tecnologie materiali, letterarie e sociali: si fa politica, insomma. Così, alla fine del libro, la questione della pompa pneumatica di Boyle assume una coloritura molto speciale. I conflitti tra Boyle e i suoi critici ci insegnano che «la lotta tra forme di vita alternative e tra le loro caratteristiche forme di prodotti intellettuali dipende dal successo politico che le varie opzioni riportano nell'insinuarsi nelle attività di altre istituzioni e gruppi di interesse. Vince chi ha il maggior numero di potenti alleati». Boyle, dunque, aveva ragione: ma aveva ragione in quanto la sua strategia di laboratorio faceva parte dell'assestamento e della protezione di quel « particolare tipo di ordine sociale » che si stava instaurando in Inghilterra. Avevamo preso l' avvio dalla domanda cruciale sul perché dovremmo fare esperimenti al fine di conoscere la natura. La risposta, nel caso della scienza sperimentale di Boyle, scaturisce non appena ci rendiamo conto, con Shapin e Schaffer, che « quanto c'era in comune tra la struttura politica della restaurazione e la scienza sperimentale era una forma di vita » à la Wittgenstein. Il successo della scienza di Boyle non fu dunque un successo dei dati di laboratorio intesi come informazioni sul mondo naturale, ma fu l'esito di una vittoria politica. Un esito che deve farci riflettere, poiché quella vittoria ha cristallizzato un rapporto tra conoscenza e politica che «nelle linee essenziali è durato tre secoli». Il progetto della nuova storiografia della scienza è indubbiamente coraggioso. Esso si regge sulla possibilità di inglobare tutti i modelli causali a microstruttura in un modello globale e onnivoro. Le conseguenze di tale globalità sono, a volte, stupefacenti. Per rendercene conto è sufficiente citare la ricostruzione della rivoluzione astronomica seicentesca recentemente proposta da Stephen Pumfrey. La cosiddetta storiografia tradizionale si cimenta da molto tempo al fine di interpretare correttamente la nascita della scienza in Occidente, ma percorre sempre una via infruttuosa poiché presume, per l'appunto, che sia esistita una scienza di cui è doveroso rintracciare le radici e le trasformazioni. Essa presume, tra l'altro, che esistessero interessanti differenze, sul piano conoscitivo, tra astronomi matematici e filosofi naturali: i primi, principalmente attenti a far di conto, e, i secondi, propensi a discutere di fisica dei cieli. Eppure, sostiene Pumfrey, l' a/faire era di ben altra e più prosaica matrice. I matematici costituivano una comunità popolata in prevalenza da persone giovani, mal pagate e dotate di uno stato sociale non brillante. I filosofi naturali, invece, avevano caratteristiche opposte e, dunque, invidiabili: un matematico che riusciva a far carriera era un professionista che usciva dalla propria comunità per entrare nell'altra. Queste divisioni accademiche, però, non erano bene accette negli ambienti legati alle corti, ovvero
www.scribd.com/Baruhk
La storia della scienza
in quei luoghi sociopolitici dove al matematico si richiedeva d'essere anche un esperto in ingegneria, architettura, alchimia, medicina e astrologia. Queste circostanze favorirono la realizzazione di nuove alleanze e la nascita di nuove pratiche. Tant'è vero che, come scrive Pumfrey, Keplero e Galilei dovettero uscire dalle collocazioni usuali come matematici e trasferirsi a corte per poter avanzare pratiche di stampo realista e copernicano. La vittoria dell'astronomia realista e copernicana, di conseguenza, fu il risultato di cause precise, in quanto gli scienziati di corte erano ben pagati, poterono proliferare in nicchie politiche che li proteggevano e gettarono infine lo scompiglio fra le file degli anticopernicani. Non ritengo d'essere l'unica persona che nutre dubbi sulla ragionevolezza della soluzione che i programmi della SSK propongono a proposito dei criteri di scientificità connessi alla deduzione matematica e alle inferenze dipendenti in modo forte dai dati di laboratorio. Questi programmi, comunque, non sono poi così innovatori come molti seguaci della SSK credono. Trattasi di programmi che, per quanto concerne la negazione del valore conoscitivo degli algoritmi o la critica radicale dei dati sperimentali, l'attacco frontale alla nozione di progresso, la riduzione della verità a potere, la sostituzione dell'idea di sviluppo con quella di ribellione psicologica contro l'egemonia di qualche paradigma di fattura politica, hanno infatti radici in quelle stratificazioni del pensiero comune dove vivono i cosiddetti valori di fondo. E, in questo caso, le punte delle radici non giungono soltanto a qualche tesi di Spengler, al libro di Thomas Kuhn del 1962, a qualche frammento del «secondo» Wittgenstein o a qualche pagina di Foucault. Esse trovano alimento in strati assai più profondi. Sto parlando di quei livelli della cultura generale che sono, per esempio, oggetto delle indagini di Michela Nacci (1994, 1995) e in cui, già sul finire dell'Ottocento, si manifestava la crescente incapacità di molti intellettuali a capire ciò che stava accadendo sia nelle scienze matematiche e naturali, sia nel rapporto fra queste ultime e le filosofie. Una delle soluzioni che furono allora escogitate e che godettero di ampio consenso consistette nel decidere (e nel far credere) che il progresso scientifico non esistesse e che la scienza non avesse alcuna autonomia rispetto alle altre forme dell'agire umano, così da ricondurla sotto il dominio della politica. VIII
·
CRESCITA
E
RIVOLUZIONE
Il programma di conversione della storiografia in scienza sociale della conoscenza ha quattro punti di riferimento basilari: rappresentare i criteri di coerenza matematica come forme di coercizione sociale, descrivere la sperimentazione come tecnica politica di formazione del consenso, far scomparire ogni distinzione possibile tra knowledge e belief, fornire spiegazioni causali del mutamento in seno alle scienze mediante una traduzione del mutamento stesso in termini di intrighi di palazzo o di rapide conversioni psicologiche. Nulla di più lontano, come si vede, dal programma di Sarton e da quanto s'è 490
www.scribd.com/Baruhk
La storia della scienza
finora ottenuto negli ambiti della storia del pensiero scientifico e delle idee o della storia delle singole scienze. Non scompaiono tuttavia le questioni di fondo: non basta infatti decidere che un algoritmo è un comizio, o che un gruppo di misure di laboratorio è una predica, per far svanire la matematica e la sperimentazione come fattori della crescita della conoscenza scientifica. Si ripropongono di continuo, infatti, le questioni sartoniane dell'albero della conoscenza, dell'ambiente in cui l'albero cresce, e della continuità o meno dello sviluppo della scienza. A questo proposito Holton ha recentemente riproposto una direttrice di ricerca attorno alla quale egli sta lavorando da anni e che ha prodotto risultati rilevanti. Molte persone sono abituate a pensare che lo scienziato, a differenza di ogni altro agente umano, operi esclusivamente su una sorta di piano sul quale sono tracciati, come assi comportamentali, le regole per inferire dati dai fenomeni e i meccanismi logici degli apparati deduttivi. Holton sostiene che questo modello della prassi scientifica deve essere arricchito con una terza dimensione intellettuale, un «terzo meccanismo» che entra in gioco nelle fasi nascenti del lavoro scientifico, è popolato da concetti o principi pregiudizialmente accettati e influisce sulle scelte possibili entro i vincoli codificati dalle dimensioni empiriche e logiche di una teoria. A conferma dell'utilità di questo modello, nella cui struttura si ripropone il dualismo tra knowledge e belief, Holton. rilegge gli scritti ai quali Einstein ha affidato le proprie idee sulla fisica teorica e; più in generale, sulla conoscenza umana. Come possiamo interpretare, in quanto stdrici, la dichiarazione einsteiniana secondo cui, una volta che si sia assunta una metriC\L riemanniana e ci sia chiesti quali sono le leggi più semplici che quella metrica sodd~fa, si arriva alla teoria relativistica della gravitazione nello spazio vuoto? \ Questa dichiarazione contiene, infatti, alx\Ieno due ingredienti. Il primo allude al processo deduttivo che una certa forma di calcolo fa scattare dopo la scelta di una metrica di tipo molto particolare. Il secondo, invece, riguarda l'opinione che sia necessario muovere il calcolo allo scopo di individuare leggi descrivibili come più semplici di altre. Il primo rinvia lo storico a una sequenza di mosse deduttive, il secondo alla credenza che le leggi da trovare siano interessanti in quanto obbediscono a qualche criterio non ben definibile di semplicità: una credenza che non appartiene certamente al sistema di calcolo da adottare, ma che, ciò nonostante, interferisce con l'attività dello scienziato. Nel caso di Einstein, Holton determina altri criteri regolatori che agiscono come elementi del terzo meccanismo. Quando Einstein asserisce che il principio creativo risiede nella matematica e non nell'adozione di questo o quel modello fisico, lo storico ha tra le mani un documento che riguarda un'opinione circa l'efficacia conoscitiva degli algoritmi, non una deduzione nel senso logico del termine o una conclusione tratta da un certo insieme di misure. E questo documento è storicamente prezioso, così come sono preziosi quelli dai quali si vede che Einstein cerca la via 491
www.scribd.com/Baruhk
La storia della scienza
per l'unificazione tra campo gravitazionale e campo elettromagnetico, respinge l'idea che sia tollerabile la scissione tra campi e particelle, elenca i fattori che debbono essere presenti in una teoria affinché essa sia razionale, e così via. Le opinioni di questo genere non sono derivabili dall'osservazione sperimentale dei fenomeni o da inferenze di natura analitica, e le scelte che esse inducono a fare non sono decidibili per via algoritmica. Il loro ruolo è tale da impedirci di leggere un asserto scientifico come se fosse interamente giacente sul solo piano empirico e algoritmico: un asserto scientifico, in quanto è condizionato da temi, è una entità collocata in uno spazio concettuale tridimensionale. È importante tenere conto del fatto che proprio la struttura di questo spazio concettuale ci aiuta a capire una differenza di fondo tra IO scienziato militante e lo storico della scienza. Il primo non ha alcuna necessità di essere pienamente consapevole dei temi che sta utilizzando, mentre lo storico non può fare a meno di analizzare questa dimensione peculiare dello sviluppo scientifico. Sono almeno due le conseguenze più importanti del modello suggerito da Holton per esplorare la crescita della conoscenza scientifica. La prima riguarda il belie/ e la seconda riguarda le modalità della crescita. Le credenze di uno scienziato o di una comunità di ricercatori a proposito della semplicità, della razionalità o dell'unificazione non sono credenze prive di ulteriori qualificazioni: esse hanno una « struttura fine » che permette sia di realizzare forme di accordo atte a stabilizzare la ricerca, sia di permettere quella libertà intellettuale che si manifesta come disaccordo sulle componenti tematiche. Il bilancio fra tali direttrici in seno al terzo meccanismo fa capire allo storico che le innovazioni e il mutamento scientifici non implicano, per ii singolo ricercatore o per le comunità, quelle forme di riorientamento radicale che nel linguaggio « corrente» sono etichettate come « rivoluzione, salto gestaltico, discontinuità, incommensurabilità, conversione e via dicendo». La crescita, nel modello di Holton, non è segnata da catastrofi. Essa è, invece, un « processo evolutivo » caratterizzato dalla presenza, al suo interno, di un elevato numero di gradi di libertà. La linea di lavoro delineata da Holton non si esaurisce, ovviamente, nel presentare un modello storiografico che privilegia le componenti tematiche a scapito delle argomentazioni matematiche e sperimentali. Queste ultime due componenti, nei libri di Holton, svolgono ruoli basilari e non sono, in alcun senso, ideologicamente appiattite. Il punto essenziale del modello sta nella sua euristica, che può aiutare la ricerca storica nell'individuare l'evoluzione del sapere sulla natura. Va altresì sottolineato che il modello di Holton si inserisce con forza nel dibattito che, negli ultimi quarant'anni, s'è articolato, in seno alla storiografia e alla filosofia della scienza, attorno al concetto di rivoluzione nella conoscenza del mondo. Non è certamente questa la sede per entrare nel merito di questo dibattito. Sia qui sufficiente rinviare il lettore a quel capolavoro che Bernard Cohen ha elaborato, con una impressionante documentazione e con rara intelligenza, nel suo volume del 1985 492
www.scribd.com/Baruhk
La storia della scienza
dedicato per l'appunto all'idea di rivoluzione e all'ampio spettro dei suoi significati possibili nell'ambito delle ricerche storiografiche. Lo spazio che ho dedicato all'opera di Holton è giustificato in quanto quell' opera ripropone, in tutta la sua complessità, il problema dei rapporti tra credenze soggettive di uno scienziato e procedure inferenziali governate da sistemi algoritmici o da misure di laboratorio. La circostanza che questo problema sia connesso alle ricerche di un fisico come Einstein, alle quali Holton ha dedicato pagine e pagine, non è d'altra parte casuale. Einstein rappresenta, per il secolo ventesimo, ciò che Galilei e Newton hanno rappresentato per il Seicento. E la questione matematica, in particolare, investe, in ambito storiografico, sia Einstein che Galilei e Newton. IX · EVOLUZIONE
E
ALGORITMI
La storia della matematica ha una caratteristica che in modo spiccato la differenzia dalla storia di una scienza sperimentale come la fisica o la biologia. La caratteristica in questione dipende dalla circostanza che potremmo indicare in modo generico dicendo che il matematico non è vincolato da tematiche immediatamente empiriche, neanche quando affronta problemi che in qualche modo dipendono dall'osservazione e dalla sperimentazione. Come sosteneva Hilbert, insomma, il matematico non può limitare il proprio lavoro al campo delle teorie che sembrano più vicine alla realtà ma deve effettuare ricerche su tutte le teorie logicamente possibili. È sotto questo aspetto che lo storico della matematica incontra, nell'interpretazione delle fonti, situazioni problematiche che sono spesso anomale rispetto a quelle che invece si presentano di fronte a uno storico della medicina o della chimica. La storia della matematica, dunque, pur prestandosi a riflessioni come quelle che Giulio Giorello ha sviluppato nel 1985 a proposito del «gioco della filosofia entro la scienza », si differenzia notevolmente dalla storia di una disciplina sperimentale e, semmai, ha aspetti in comune con la storia della logica matematica, alla quale Corrado Mangione e Silvio Bozzi hanno recentemente dedicato un ponderoso volume e un cui capitolo, rivolto alla matematizzazione della logica, era stato studiato da Paolo Freguglia. Un tema che spesso si manifesta nella crescita della matematica sembra essere quello della correlazione tra rigore e sviluppo. Come ha messo in evidenza Umberto Bottazzini nella sua lunga introduzione alla ristampa del Cours d'analyse di Cauchy, in seno alla storiografia anche più avveduta del Novecento è stata dominante, per decenni, l'opinione che le indagini matematiche settecentesche fossero povere sotto il duplice profilo dei concetti e del rigore. Quell'opinione s'era in realtà formata negli ambienti matematici, scrive Bottazzini, quando, sul finire dell'Ottocento, erano effettivamente sorti nuovi criteri di giudizio che dipendevano dagli sforzi allora necessari per ristrutturare l'analisi e sancivano nuove norme di valutazione a proposito dei risultati che erano stati ottenuti nel passato. Ma quelle nuove esigenze di rigore 493
www.scribd.com/Baruhk
La storia della scienza
costituiscono, in realtà, un terreno di studio storico, e non dovrebbero pertanto trasformarsi in categorie interpretative della storia della matematica. L'assunzione di quelle esigenze al ruolo di categorie interpretative ha fatto sì che proprio il Cours di Cauchy fosse letto come una sorta di manifesto di esigenze rigoriste che, con la loro modernità, si sarebbero contrapposte a un certo lassismo settecentesco. Opere rilevanti e documentate come quelle di Boyer, Klein e Kline erano tipiche di questo modo di vedere lo sviluppo della matematica. Un contributo forse al consolidarsi di questa attitudine fu anche offerto dalle pagine che, a firma Bourbaki, apparvero nel 1960 e rafforzarono il prevalere di una sorta di «opinione comune» tra i matematici. Né si usciva dalle anomalie della storia della matematica con le ricostruzioni razionali esposte una trentina d'anni or sono da Lakatos. La situazione che s'era creata circa il rigore fu criticata nel 1986 da Jean Dieudonné (uno degli studiosi più rappresentativi del gruppo Bourbaki), il quale, come ricorda Bottazzini, non a caso rilesse alcuni maestri del Settecento come J acques Bernouilli o il grande Eulero e sostenne che l'accusa di mancanza di rigore rivolta contro gli analisti settecenteschi era stata lanciata in quanto non era stato sufficientemente esaminato il contesto in cui quegli studiosi avevano compiuto le proprie ricerche. li Settecento di un Eulero e il primo Ottocento di un Cauchy sono dunque, anche sotto il profilo del rigore e della ricchezza concettuale, un vero e proprio banco di prova per una storiografia che, come già s'è detto citando il lavoro di Truesdell sulla meccanica settecentesca, sta facendo sorgere quesiti di profondo interesse attorno alla crescita della conoscenza nei due secoli che separano il trattato newtoniano sull'ottica dal primo articolo di Einstein sull'elettrodinamica dei corpi in movimento, e che, a lungo, erano stati considerati come un lungo e pressoché statico intervallo tra la rivoluzione seicentesca e le nuove scienze del Novecento. È notevole il fatto che questa ripresa delle ricerche sul Settecento e l'Ottocento si muova pressoché parallelamente ad altri lavori che riguardano, per esempio, l'opera matematica di Newton, raccolta in una raffinata edizione critica in più volumi coordinata da Whiteside. Quest'ultima è stata fondamentale non solo per aiutare a ricostruire i legami tra il matematico Newton e altri matematici seicenteschi, ma anche per aver offerto un punto di riferimento cruciale per la magistrale rilettura dell'opera newtoniana, pubblicata nel 1980 da Richard Westfall. Westfall ha giustamente sottolineato come la propria ricerca sull'autore dei Principia si differenzi da quelle che l'hanno preceduta per l'attenzione prestata all'attività di Newton come matematico, e come quest'attenzione abbia però potuto concretizzarsi solo grazie all'edizione curata da Whiteside. In Italia questa ripresa di interessi ha prodotto risultati di primo piano, sia per quanto riguarda la matematica, sia per quanto riguarda il ruolo che quest'ultima svolge in altre scienze. Nell'ambito della storia della matematica Bottazzini si è impegnato, con i due volumi pubblicati nel 1981 e nel 1986, nello studio degli sviluppi dell'analisi da Eulero a Weierstrass, mentre Niccolò Guicciardini, in un libro del 494
www.scribd.com/Baruhk
La storia della scienza
1989, ha sfatato alcuni mttl secondo i quali, dopo la morte di Newton, la ricerca
matematica in Inghilterra sarebbe stata a lungo contrassegnata da una sostanziale sterilità. Per quanto invece concerne il peso degli algoritmi nella crescita postnewtoniana della teoria del moto, Giulio Maltese ha fatto vedere come, contrariamente a opinioni molto diffuse delle quali già s'è fatto qui cenno, la matematica sia stata essenziale per il progresso della meccanica newtoniana durante il Settecento. Ancora sul rapporto tra matematica e fisica, rivisitato nel periodo cruciale di transizione dall'Ottocento al Novecento, è centrata l'intelligente analisi che Claudio Bartocci ha svolto nel presentare una raccolta di scritti di Poincaré, mentre, sul piano della documentazione relativa alle interazioni fra ricerca matematica, cultura e politica nell'Italia postunitaria, è di notevole valore l'intervento recente di Angelo Guerraggio e Pietro N astasi. Di particolare rilievo sono, sempre nell'aJ?bito delle correlazioni individuabili tra linguaggi altamente formalizzati e problemi empirici, i risultati ottenuti da Edoardo Benvenuto e da Enrico Giusti. Benvenuto ha ripercorso un processo di lungo periodo che coinvolge il rapporto tra architettura, ingegneria e sistemi deduttivi della meccanica razionale e della fisica matematica: un processo che affronta la ben nota circostanza per cui le tecniche degli antichi costruttori raggiunsero notevolissimi livelli di efficacia prima che i sistemi deduttivi ne giustificassero i successi. È vero, come osserva Benvenuto nell'introduzione al primo volume della sua opera, che «i tecnici sapevano che cosa funzionava bene e non erano, spesso, molto interessati attorno al perché funzionasse». Ed è anche vero che i primi dati di partenza per la scienza della meccanica non derivarono da accurate sperimentazioni ma dall'« esperienza pratica». Tutto ciò porta a vedere sotto nuova luce gli «oggetti speciali» che fecero nascere la meccanica o il ruolo complesso di nozioni come quella di «forza». La nuova luce è fornita da eventi che, attorno alla metà del Novecento, si sono verificati nella meccanica. Essi hanno infatti avviato uno sviluppo di ricerche che introducono criteri di coerenza tipici della matematica pura, trasformano alcuni termini di base (come «corpo», «forza» o «processo dinamico») in oggetti matematici veri e propri, e portano a vedere relazioni più chiare tra sistemi formali, scienze della natura e tecniche costruttive. È questa, dunque, l'ottica in cui Benvenuto lavora, con l'austerità che deriva dall'accettare il monito, formulato da Truesdell e Toupin nel 1960, secondo cui non esiste ancora una storia affidabile circa i concetti e gli assiomi della meccanica dalle origini sino all'era di Lagrange. Le analisi storiche condotte da Giusti sulle procedure deduttive adottate da Galilei nella fondazione della meccanica seicentesca hanno contribuito ad azzerare non poche leggende sull'opera galileiana e sulle origini stesse di un ramo portante della rivoluzione scientifica. Non si sta qui parlando, semplicemente, della congettura di Koyré relativa al ruolo di una metodologia matematizzante di natura più o meno platonica, ma dello specifico apparato geometrico che sta alla base dell'impresa galileiana. Giusti fa notare che, contrariamente a quanto si può credere o 495
www.scribd.com/Baruhk
La storia della scienza
immaginare, il capolavoro galileiano in fisica - Discorsi e dimostrazioni matematiche intorno a due nuove scienze - è sostanzialmente privo di « un filo conduttore »: le nuove scienze « sono ancora lontane da una sistemazione organica, e nella loro esposizione elementi arcaici, risalenti alle prime ricerche galileiane, si sovrappongono senza mai riuscire a fondersi ad elaborazioni più mature». La sistemazione della scienza del moto, nei Discorsi, appare come« un'attestazione su posizioni difensive», e la ragione di questo stato di cose sta nella « inadeguatezza dell'apparato matematico di cui Galilei dispone»: il sistema deduttivo galileiano non è completamente adatto a enunciare le nuove idee galileiane, e, spesso, l'autore del Dialogo e dei Discorsi è costretto a «compiere una serie di acrobazie matematiche, forzando oltre il lecito il formalismo ». Galilei, osserva Giusti, vuole scoprire « una teoria matematica che colleghi tra loro risultati precedentemente acquisiti ». Osservazione, questa, che rinvia il lettore alla tradizionale disputa sulle radici sperimentali o speculative di quei risultati. Ma non è questa disputa che Giusti prende di mira, ritenendo che i quesiti in essa riposti non abbiano ancora trovato risposte definitive. Giusti invece esamina l'apparato deduttivo che dovrebbe garantire la validità della teoria galileiana del moto, lo riconduce correttamente alla teoria geometrica delle proporzioni e mostra che quello strumento matematico dovette essere forzato per fargli esprimere ciò che esso non poteva esprimere e per evitare l'approdo a conclusioni deduttivamente ineccepibili ma fisicamente assurde: in non pochi casi Galilei esercitò violenza sull'apparato deduttivo valendosi di « procedimenti retorici basati sull'equivoco tra linguaggio matematico e linguaggio comune». Vale la pena di riportare per intero la conclusione cui Giusti perviene: «Se si guarda dunque ai Discorsi con l'occhio rivolto ai successivi sviluppi, questi ci appaiono come l'inizio della scienza moderna; il primo gradino di un cammino che ancora prosegue nella direzione tracciata dallo scienziato pisano. Vista invece come punto d'arrivo del percorso intellettuale che in queste pagine abbiamo tentato di ricostruire, la teoria del moto che il prigioniero di Arcetri invia verso la libera Olanda ha le caratteristiche se non di una sconfitta almeno di un ripiegamento. Destino forse obbligato delle opere di grandi spiriti, che vedono al di là del proprio tempo e delle proprie possibilità». Ho citato questo passo perché esso rimanda a considerazioni che sono reperibili quando si esaminano testi dedicati ad altri «grandi spiriti». E sto ora pensando al Cauchy di Bottazzini, al Newton di Westfall, al Laplace e al Maxwell di Truesdell o al Maxwell di Hendry: i grandi pionieri non tracciano mappe complete dei nuovi territori da esplorare, ma indicano percorsi possibili e, spesso, le indicazioni sono incerte e opache. In quanto l'esame accurato dei sistemi deduttivi messi in gioco ci aiuta a capire il valore intellettuale dei « grandi spiriti », dovrebbe finire nel magazzino delle opinioni obsolete il punto di vista secondo cui una storiografia troppo specializzata e troppo at~enta ai formalismi rappresenterebbe un ostacolo per la com-
www.scribd.com/Baruhk
La storia della scienza
prensione delle vicende conoscitive del passato. Una volta, ribellandosi contro gli eccessi di una storiografia che vedeva soltanto, nello sviluppo della scienza, un succedersi di accidentali salti mistici, Imre Lakatos sostenne che certe vicende care alla sociopsicologia della conoscenza erano, nella più caritatevole delle ipotesi, da relegare in qualche nota a piè di pagina. Un giudizio tagliente e, se generalizzato al di fuori di certe polemiche del passato, fuorviante: non più fuorviante, però, del giudizio per così dire opposto, secondo il quale, a finire in qualche nota erudita, dovrebbero essere invece le argomentazioni connesse agli algoritmi. X
· I
RAMI
EMPIRICI
DELL'ALBERO
DELLA
CONOSCENZA
Le componenti empiriche dell'albero della conoscenza di Sarton o dello spazio concettuale di Holton hanno in comune, con le componenti algoritmiche, la tenacia di resistere ai tentativi di farle evaporare dalla storia. Per uno storico, infatti, il ruolo dei dispositivi di laboratorio costituisce una parte del problema più generale che si enuncia quando si parla del peso che le tecniche e i manufatti esercitano nello sviluppo della cultura umana. Un quarto di secolo non è trascorso invano da quando Rossi, nella Prefazione del 1971 alla seconda edizione del suo saggio sui rapporti che si erano instaurati tra scienza, filosofia e tecnica tra il 1400 e il 1700, ricordava a Rupert Hall che non era più possibile condividere la posizione di chi, da un lato, constatava la presenza di un mondo di tecniche nello sviluppo del sapere scientifico nei secoli XVI e XVII, e, dall'altro, ne limitava però l'importanza sostenendo che il mutamento conoscitivo vero e proprio era comunque riconducibile « a un fatto "filosofico"». Secondo Rossi quella posizione era fallace poiché non teneva conto del fatto che «a differenza degli artigiani e dei "meccanici" dell'antichità e del medioevo, i tecnici della nascente età moderna scrissero e pubblicarono libri, dettero espressione a idee relative alle arti, alle scienze, ai loro rapporti, tentarono di misurarsi polemicamente con la tradizione, contrapposero il loro tipo di sapere e di approccio alla realtà naturale a quelli teorizzati e praticati nelle università ». La tendenza storiografica a ridurre la componente tecnica della rivoluzione scientifica a un affaire filosofico si riallacciava, in parte, alle opinioni di Koyré, e, in parte, al timore che la storia della scienza diventasse un mero settore della storia della tecnica: un timore non del tutto giustificabile, se si ricorda che ancora oggi, dopo quasi tre decenni, è sempre popolare il punto di vista che uno storico del pensiero biologico possa tranquillamente fare a meno di sapere come precisamente funziona, e perché, un microscopio, e come siano i fatti i capillari che con quel microscopio si vogliono esplorare nella seconda della metà del Seicento. La popolarità di una credenza pregiudizialmente ostile alla funzione della tecnica, al ruolo dei manufatti e alla struttura degli enti non linguistici (pianeti della 497
www.scribd.com/Baruhk
La storia della scienza
stella Sole o capillari in un polmone di rana, macromolecole o neuroni) ai quali certi manufatti sono rivolti, non è tuttavia sinonimo di validità a priori della tesi che a quella credenza fornisce il fondamento. E sto qui parlando della tesi secondo cui non esistono enti non linguistici ma solo creazioni della mente o dell'azione politica: dal che lo storico dovrebbe chiaramente dedurre molte cose assai tranquillizzanti. Dovrebbe imparare, per esempio, che la scoperta dei primi quattro satelliti di Giove fu l'esito di un puro e complesso rincorrersi di idee la cui ricostruzione non comporta, se non in forme del tutto accessorie, la presenza di dispositivi ottici o di un certo numero di satelliti attorno a Giove; o che le indagini di Harvey sulla circolazione del sangue furono dominate da complesse riflessioni sulla filosofia di Aristotele, essendo quasi marginali, o puramente tecniche, le questioni connesse alla struttura dei vasi sanguigni o alla funzione del cuore. Non si vuole implicitamente sostenere che il problema debba essere rovesciato e che, di conseguenza, nessun interesse vada riposto nelle opinioni di Harvey a proposito di Aristotele o nessuna attenzione debba essere rivolta ai punti di vista di Galilei circa il copernicanesimo e il ruolo conoscitivo dell'osservazione telescopica. Esistono libri nei quali la vita privata e le opinioni di un grande scienziato sono passate al vaglio finissimo di una erudita analisi di moltissime fonti: libri come quello con cui Adrian Desmond e James Moore hanno descritto il « cammino tortuoso, pieno di vicoli ciechi, cosparso di mezze verità» che fu seguito da Darwin per incamminarsi verso l'elaborazione della sua teoria. Il lettore colto e lo storico della scienza non cercano nelle pagine di Desmond e Moore ciò che quelle pagine non vogliono offrire, ovvero una storia centrata sulla struttura teorica e sulla base empirica dell'evoluzionismo darwiniano: possono, su quella struttura e quella base, trovare dati in testi come quello che Ernst Mayr colloca, almeno in parte, sotto l'egida del motto: «Studiate i problemi, non i periodi.» Nel libro di Desmond e Moore va cercata l'architettura del contesto culturale in cui Darwin visse e operò: e vi si trova, infatti, quel «ritratto sociale» di Darwin che è importante per capire sia Darwin, sia le idee che influirono su un travagliato e difficile processo di sviluppo della biologia ottocentesca. Altri progetti storiografici partono invece dall'esigenza di disegnare il ritratto di uno scienziato e di ridurre le scoperte effettuate da quest'ultimo a particolari del ritratto stesso. Esemplare, sotto questo aspetto, è il lavoro di Geoffrey Cantor su Michael Faraday. Faraday, al quale Pearce Williams ha dedicato, anni or sono, una splendida biografia, è un difficile banco di prova per la storia delle scienze sperimentali. Autodidatta e poverissimo di conoscenze matematiche, Faraday era critico nei confronti della fisica matematica e della visione corpuscolare della materia. Asseriva di preferire di gran lunga i fatti alle teorie ma era in grado di apprezzare l'approccio formalizzato di Maxwell, e seppe aprire la via verso la teoria classica del campo elettromagnetico. Cantor esplora con dovizia di dati la sua filosofia personale e
www.scribd.com/Baruhk
La storia della scienza
mostra come essa dipendesse, in larga misura, dalle letture bibliche che regolavano una setta cristiana minoritaria alla quale Faraday apparteneva. Una ricostruzione che è di certo utile per capire come la vita privata e le opinioni etiche e religiose del grande scienziato fossero condizionate da una interpretazione letterale della Bibbia. Cantor ammette, nell'ottavo capitolo del suo libro, che l'atteggiamento di Faraday verso la matematica « non può essere direttamente correlato con alcuna parte specifica della Bibbia». Questa situazione non crea tuttavia problemi insolubili. Il Faraday di Cantor aveva infatti accettato l'opinione che la matematica fosse un linguaggio inventato dai terrestri e non potesse pertanto coincidere con il linguaggio usato da dio nella scrittura del libro del mondo. Aveva inoltre imparato, dalla Bibbia, che dio non aveva creato istantaneamente il mondo ma aveva dedicato a quell'impresa un certo intervallo di tempo. Aveva infine appreso, nelle discussioni in seno alla sua setta, che l'opera divina era basata sulla continuità. Tre ingredienti fondamentali per respingere la matematica e rivolgersi allo sperimentalismo, rifiutare l'atomismo e puntare tutto sul continuo, cogliere il ruolo centrale del tempo nei fenomeni connessi all'induzione elettromagnetica: diventava allora necessario, attorno all'anno di grazia r83o, che esistesse una dipendenza nel continuo e nel tempo tra elettricità e magnetismo. Così, nel nono capitolo, il Faraday di Cantor scopre il principio di induzione elettromagnetica per maggior gloria del dio biblico. Tra il riduzionismo forte di un Cantor e le complesse mappe che devono essere disegnate per giungere al « ritratto sociale » di Desmond e Moore esiste comunque un territorio storico di grande estensione e del massimo interesse per chi intende esplorare, con pluralità di metodi, lo sviluppo delle scienze più legate all'osservazione. In ambito internazionale sono stati pubblicati testi in cui la correlazione tra base empirica, cultura di sfondo e ruolo delle istituzioni si è rivelata oltremodo ricca di informazioni per ricostruire, grazie alle ricerche di John Heilbron, il travaglio delle scienze dell'elettricità e del magnetismo durante il Seicento e il Settecento, o per affrontare in modo nuovo, come ha fatto William Shea nella sua recente biografia di Descartes, la difficile questione del ruolo della metafisica nell'indagine cartesiana su ciò che si osserva nella natura. Su questi territori la storiografia italiana si sta muovendo con efficacia e ha prodotto, negli ultimi anni, documenti cospicui. Penso, per esempio, al libro di Renato Mazzolini su quegli aspetti cruciali nella storia della fisiologia che possono essere ricostruiti solo a patto di procedere alla ripetizione di esperimenti del passato: un patto certamente scomodo e che ben raramente è stato sottoscritto, anche se era stato bene enunciato da Luigi Belloni in varie occasioni, tra le quali quella che portò all'edizione delle opere scelte di Malpighi e alla scrupolosa lettura dei passi salienti delle indagini sperimentali di Malpighi sul polmone della rana e sulle loro correlazioni con l'opera di Harvey. Penso anche al recente saggio di Giuseppe Bruzzaniti sulle origini della fisica nucleare, principalmente rivolto all'analisi storica della formazione di quei linguaggi che hanno reso possibile, nel contesto della sco499
www.scribd.com/Baruhk
La storia della scienza
perta, la transizione dalla base empirica della primitiva fisica delle radiazioni di fine Ottocento alla strutturazione di una disciplina vera e propria: la fisica del nucleo. Cito Mazzolini e Bruzzaniti in quanto storici tra loro diversissimi a livello di modelli interpretativi e testimoni di una ricca produzione nazionale che si sta realizzando con pluralità di metodi e ricchezza di risultati nella ricostruzione di fasi salienti nella crescita delle scienze sperimentali. Gli elenchi sono sempre parziali e riduttivi, ma, per dare solo un'idea approssimativa di quanto sta accadendo in Italia nel settore che sto ora ricordando per sommi capi, vale la pena di suggerire un catalogo approssimativo di opere pubblicate negli ultimi anni, facendo riferimento alle indagini di Mario Vegetti e Ivan Garofalo sulla medicina antica, di Giuliano Pancaldi, Giulio Barsanti, Pietro Corsi, Antonello La Vergata e Giacomo Scarpelli sui rapporti fra cultura e pensiero biologico, di Ferdinando Abbri sulla rivoluzione lavoisieriana in chimica, di Marco Segala sulle controversie del nostro secolo a proposito delle scienze della terra, di Maurizio Mamiani sulla rilettura degli scritti newtoniani relativi all'Apocalisse, di Sandra Petruccioli su Bohr e di Silvio Bergia sui dibattiti che hanno accompagnato la cosmologia novecentesca. Un catalogo altrettanto rilevante dovrebbe poi riguardare i cosiddetti lavori in corso, portati innanzi da giovani ricercatori: nel momento in cui scrivo queste righe mi è d'obbligo citare per lo meno i risultati che per varie vie mi sono noti, e che riguardano la scrupolosa ricostruzione che Rossana Tazzioli sta portando a termine nel difficile tentativo di specificare, in seno alla storia della matematica ottocentesca, le premesse che sarebbero poi sfociate nella teoria della relatività; gli studi condotti da Marco Ciardi sulle intricate vicende che stanno alle spalle dell'opera di Avogadro; l'intelligente ricerca portata innanzi da Gilberto Corbellini sull'influenza che le conoscenze immunologiche stanno esercitando sulla crescita delle scienze medico-biologiche; l'accurata rilettura delle fonti che, grazie a un modello storiagrafico finalizzato a porre in luce le correlazioni tra algoritmi e scoperta sperimentale, Dalida Monti ha già portato a una fase interpretativa dell'operato di Dirac sul duplice fronte dell'elettrodinamica dei quanti e della teoria quantorelativistica dell' elettrone. XI
· CONCLUSIONE
Da quell'osservatorio particolarissimo che è costituito dalla produzione di grandi opere la situazione della storia della scienza appare in buona salute: per quanto riguarda l'Italia, La Storia del pensiero filosofico e scientifico diretta da Ludovico Geymonat e la Storia della scienza moderna e contemporanea curata da Paolo Rossi sono testimonianze dell'accresciuto interesse della cultura nazionale verso questa disciplina. In generale, poi, la produzione di manuali è un indizio della diffusione di una disciplina nell'area universitaria. Sia qui sufficiente ricordare, in proposito, la serie di testi curata da Roy Porter per Fontana Press, che ha già portato alla 500
www.scribd.com/Baruhk
La storia della scienza
stampa volumi quali la storia della chimica di William Brock o la storia dell'astronomia e della cosmologia di John North, la storia della matematica nel periodo compreso tra Leibniz e la metà del Novecento elaborata da Bottazzini e il mio volume sulla storia della fisica moderna e contemporanea, che è connesso, per un verso, con l'edizione delle Opere scelte di Einstein, e, per l'altro, con due monografie che ho rispettivamente dedicato alla storia della nozione di tempo e al problema della traduzione come fattore di sviluppo storico delle teorie. In conclusione, vanno tenute presenti alcune questioni che riguardano il nostro paese. La questione principale è, a mio avviso, costituita dal rapporto tra storia della scienza e istituzione universitaria. Nei non pochi anni intercorsi tra la pubblicazione della Storia di Geymonat e la stampa della Storia di Rossi il mondo accademico s'è indubbiamente aperto, soprattutto nell'area umanistica, verso l'insegnamento e la ricerca in storia della scienza. Anche nelle facoltà scientifiche si sono verificati eventi positivi nei confronti della storia di singole discipline. Un fattore importante fu, sotto questo profilo, l'opera pionieristica della Domus Galilaeana di Pisa, che, sotto la guida di Giovanni Polvani, già negli anni sessanta s'era mossa con un sobrio e austero programma rivolto alla formazione di docenti e ricercatori da inserire nel mondo universitario, e che ha poi beneficiato per alcuni anni, sotto la direzione di Vincenzo Cappelletti, di una salutare estensione di interessi culturali. Inoltre, nelle Facoltà di Medicina si sta sempre più avvertendo l'opportunità di valorizzare la storia della medicina ed è ormai presente, nei corsi di laurea che afferiscono alle Facoltà di Scienze Matematiche, Fisiche e Naturali o alla Facoltà di Architettura, l'esigenza di insegnamenti di storia della scienza o di storia della fisica, della matematica o dell'astronomia. La presenza dell'indirizzo storiografico nelle aree scientifiche del mondo universitario e delle istituzioni preposte al coordinamento della ricerca su scala nazionale non può ancora dirsi consolidata, anche se è indubbiamente più estesa di quella che era tipica negli anni sessanta. E qui si innesta una seconda questione di natura generale. Si va facendo infatti strada il punto di vista che la ricerca scientifica e tecnologica siano, a pieno titolo, forme basilari della cultura nazionale, e che, in quanto tali, esse possiedano uno spessore storico che non può più essere messo tra parentesi nella stessa preparazione professionale di un medico o di un chimico, di un matematico o di un biologo, di un fisico, di un architetto o di un ingegnere, e che non può, d'altra parte, non essere di valore centrale nella augurabile programmazione di una più razionale tutela dei beni culturali del paese. Un altro segno confortante è leggibile nel campo delle riviste. Si stampa nel nostro paese, sotto l'egida dell'Istituto della Enciclopedia Italiana, la rivista« Archives Internationales d'Histoire des Sciences » (espressione dell'Academie Internatiana/e d'Histoire des Sciences), e si distinguono per la vastità degli interessi e il livello degli articoli pubblicati « Nuncius », edita a cura dell'Istituto e Museo di Storia della Scienza e della Tecnica di Firenze, la «Rivista di Storia della Scienza» 501
www.scribd.com/Baruhk
La storia delia scienza
diretta da Giorgio Tecce e Giorgio Israel e « Physis », pubblicata dalla Domus Galilaeana di Pisa. Queste ultime e brevi annotazioni sono introduttive a una terza questione di rilievo, la cui natura riguarda il potenziamento delle istituzioni e la valorizzazione delle fonti che rendono possibile la ricerca in storia della scienza. Il quadro istituzionale va al di là delle mura universitarie, poiché contiene organismi di nuova formazione (come la Società Italiana di Storia della Scienza presieduta da Carlo Maccagni), enti che si sono radicalmente trasformati diventando punti di riferimento per studiosi italiani e stranieri (come l'Istituto e Museo di Storia della Scienza e della Tecnica di Firenze, diretto da Paolo Galluzzi), scuole che hanno già svolto e possono ancora svolgere ruoli esemplari (come la già ricordata Domus Galilaeana di Pisa), strutture dipendenti dal Consiglio Nazionale delle Ricerche e da Ministeri, organismi che assolvono al compito di conservare e catalogare strumenti e archivi (e, in questo caso, l'elenco sarebbe lungo da compilare: sia sufficiente citare i centri di Brera, Pavia e Bologna, rispettivamente coordinati da storici della fisica come Pasquale Tucci, Fabio Bevilacqua e Giorgio Dragoni). La quarta e ultima questione dipende dalla collocazione della storia della scienza nella cultura nazionale. È certamente vero, come si ama ripetere, che la scienza è stata, in Italia, trascurata come ricchezza nazionale bisognosa di adeguati finanziamenti e programmi, e, nello stesso tempo, giudicata in molte sedi come essenzialmente vuota di portata conoscitiva. Il nostro paese non costituì tuttavia un'eccezione stravagante rispetto ad altri. L'elogio della storia della scienza che Sarton tracciò nel 1930 dipendeva anche dalla necessità di criticare un sistema educativo e un sapere diffuso che, in quanto tracciavano steccati tra scienza e cultura, erano, nello stesso tempo, intrinsecamente ottusi e praticamente dannosi. Se è dunque vero che la consapevolezza dello stato di cose denunciato da Sarton si va ora estendendo anche in Italia, e se è legittimo pensare che la storia della scienza abbia davvero quel ruolo civilizzatore che Sarton le aveva attribuito, allora, in chiusura di questa incompleta panoramica degli studi, non è ispirato dalla retorica il fatto di riconoscere a Ludovico Geymonat il merito d'essersi battuto affinché gli storici della scienza, oltre a essere riconosciuti in ambiti accademici, fossero anche protagonisti della battaglia che ogni società deve compiere per salvare se stessa, ovvero per produrre conoscenza senza istituire fittizie linee doganali tra cultura, scienza e storia.
502
www.scribd.com/Baruhk
Bibliografia
www.scribd.com/Baruhk
www.scribd.com/Baruhk
CAPITOLO PRIMO
Filosofia della scienza: la chiusura di un ciclo? AcHINSTEIN P., The nature of explanation, Oxford 1983. AcHINSTEIN P., The pragmatic character of explanation, PSA, 1984, pp. 275-292. Ristampato in RuBEN D.-H., 1993, pp. 326-344. AGASSI ]., Science in flux, Dordrecht 1975. AGAZZI E., Filosofia della natura, Casale Monferrato (Al.) 1995. ANTISERI D., Il ruolo della metafisica nella scoperta scientifica e nella storia della scienza, in «Rivista di Filosofia neo-scolastica», LXXIV, 1982, pp. 68-108. ANnsERI D., Trattato di metodologia delle scienze sociali, Torino 1996. ARisTOTELE, Analytica posteriora (trad. it., Secondi analitici, Roma-Bari 1991). ARisTOTELE, Metaphysica (trad. it., Metafisica, Roma-Bari 1992). AsPECT A., GRANGIER P. e RoGER G., Experimental realisation of Eimtein-Podolsky-Rosen-Bohm Gedankenexperiment: a new violation of BeU's inequalities, in « Phys. Rev. Letters », 48, 1982, pp. 91-94· AsPECT A., DALIBARD J. e RoGER G., Experimental test of BeU's inequalities using time-varying analysers, in « Phys. Rev. Letters », 49, 1982, pp. 1804-1807. BALDINI M., Congetture sull'epistemologia e sulla storia della scienza, Roma 1986. BAMFORD G., Popper's explicatiom of Ad Hocness: circularity, empirica/ content, and scientific practice, in « Brit. J ourn. Phil. Sci. », 44, 1993, pp. 335-355. BARONE F., Immagini filosofiche della scienza, Roma-Bari 1983. BELLONE E., Filosofia e fisica, in Rossi P. 1994, vol. n, pp. 51-98. BELNAP N.D. e STEEL J.B., The logic of questions and answers, New Haven 1976. BEiurnLY G., Three dialogues between Hylas and Philonous, 1713 (trad. it., Dialoghi tra Hylas e Philonous, Padova 1944). BERTI E., Le ragioni di Aristotele, Roma-Bari 1989. BIGELOW J. e PARGETTER R., Functions, in «Journal of Philosophy », 84, 1987, pp. 181-196. BoNIOLO G., Theory and experiment. The case of Eotviis' experiments, in « Brit. Journ. Phil. Sci. », 43, 1992, pp. 459-486. Bovn R., Realism, underdetermination and a causai theory of evidence, in « Noiìs », 7, 1973, pp. 1-12. Bovn R., Scientific realism and naturalistic epistemology, PSA, vol. 2, So, 1981. Bovn R., On the current status of scientific realism, in « Erkenntnis », 19, 1983, pp. 45-90. Ristampato in Bovn R., GASPER P. e TROUT J.D. 1991, pp. 195-222.
www.scribd.com/Baruhk
Bibliografia BoYD R., GASPER P. e TROUT J.D. (a cura di), The philosophy ofscience, Cambridge (Mass.) 1991. BRIDGMAN P. W., The logic of modern physics, New York 1927 (trad. it., La logica della fisica moderna, Torino 1965). BROMBERGER S., Why-questions, in CoLODNY R. 1966, pp. 86-m. BRUSCHI R., W.V.O. Quine: a bibliographical guide, Firenze 1986. CANFIELD J. (a cura di), Purpose in nature, Englewood Cliffs (N.J.) 1966. CARTWRIGHT N., How the laws of physics lie, Oxford 1983. CHISOLM R.M., The contrary-to-Jact conditiona4 in « Mind », 55, 1946, pp. 289-307 (trad. it., in PIZZI G. 1978, pp. 95-m). CoFFA J.A., Hempel's ambiguity, in « Synthese », 28, 1974, pp. 141-163. Ristampato in RuBEN
D.-H. 1993, pp. 56-n. CoHEN R.S., FEYERABEND P.K. e WARTOFSKY M.W. (a cura di), Essays in memory of Imre
Lakatos, Dordrecht 1976. CoLODNY R. (a cura di), Frontiers of science and philosophy, Pittsburgh 1962. CoLODNY R. (a cura di), Mind and cosmos, Pittsburgh 1966. CuRCHLAND P.M. e HooKER C.A. (a cura di), Images of science, Chicago 1985. D'AGOSTINO S., Boltzmann and Hertz on the Bi/d conception of physical theory, in «History of Science », 28, 1990, pp. 380-398. DORATO M., The world of the worms and the quest for reality, in « Dialectica », 42, 1988, pp. 171-182. DuHEM P., La théorie physique: son object et sa structure, Parigi 19142 (trad. it., La teoria fisica, Bologna 1978). EARMAN J., A primer of determinism, Dordrecht 1986. FETZER J.H., Probability and explanation, in « Synthese », 48, 1981, pp. 371-408. FEYERABEND P.K., Against method, Londra 1975 (trad. it., Contro il metodo, Milano 1979). FINE A., The natura/ ontological attitude, in LEPLIN J. 1984, pp. 83-107. Ristampato in BoYD R., GASPER P. e TROUT J.D. 1991, pp. 261-277. FINE A., The shaky game, Chicago 1986. FINOCCHIARO M., Galileo and the art of reasoning, Dordrecht 1980. FRANKLIN A.D., What makes a «good» experiment?, in « Brit. Joum. Phil. Sci.», 32, 1981, pp. 367-379· FRANKLIN A.D., The neglect of experiment, Cambridge 1989. FRANKLIN A.D., Experiment: right or wrong, Cambridge 1990. FRIEDMAN M., Explanation and scientific understanding, in «Journal of Philosophy», 71, 1974, pp. 367-379· GALAVOTTI M.C., Spiegazioni probabilistiche: un dibattito aperto, Bologna 1984. GALISON P., How experiments end, Chicago 1987. GILLIES D. e GIORELLO G., La filosofia della scienza del XX secolo, Roma-Bari 1995. GooDMAN N., The problem of the counterfoctual conditionals, in «Joumal of Philosophy », 44, 1947, pp. 113-128 (ora in GooDMAN N. 1983, cap. I). GoODMAN N., Fact, fiction and forecast, Harvard 1983 (trad. it., Fatti, ipotesi, previsioni, RomaBari 1985). GREENO J.G., Evaluation of statistica/ hypotheses using information transmitted, in « Philosophy of Science », 37, 1970, pp. 279-293.
506
www.scribd.com/Baruhk
Bibliografia
GRùNBAUM A., fs folsifiability the touchstone of scientific rationality? Karl Popper versus inductivism, 1976a, in CoHEN R.S., FEYERABEND P.K. e WARTOFSKY M.W. 1976, pp. 213-252. GRùNBAUM A., Can a theory amwer more questiom than one of its rivals?, in « Brit. J ourn. Phil. Sci.», 27, 1976b, pp. 1-23. GRùNBAUM A., fs the method of bo/d conjectures and attempted refutations justifiably the method of science?, in « Brit. Journ. Phil. Sci.», 27, 1976c, pp. 105-136. GRùNBAUM A., Ad hoc auxiliary hypotheses and folsificationism, in « Brit. Journ. Phil. Sci.», 27, 1976d, pp. 329-362. HACKING L, Representing and intervening, Cambridge 1983 (trad. it., Conoscere e sperimentare, Roma-Bari 1987). HANSON N.R., Patterm of discovery, Cambridge 1958 (trad. it., I modelli della scoperta scientifica, Milano 1978). 1-IARDIN C. e RosENBERG A., In defence of convergent realism, in « Philosophy of Science », 49, 1982, pp. 604-615. 1-IARMAN G., Inference to the best explanation, in « Philosophical Review », 74, 1965, pp. 8895·
R., Varieties of realism, Oxford 1986. HARrus J., Popper's definitiom of verisimilitude, in « Brit. Journ. Phil. Sci.», 25, 1974, pp.
lfARRÉ
160-166.
HEMPEL C.G., Problemi e mutamenti del criterio empiristico del significato, 1950. Ristampato in LINSKY L. 1952, pp. 209-238. HEMPEL C. G., Deductive-nomological vs. statistica! explanation, in « Minnesota Studies in the Philosophy of Science », m, 1962a, pp. 98-169. HEMPEL C.G., Explanation in science and in history, 1962b, in CoLODNY R. 1962, pp. 9-33. HEMPEL C.G., Aspects of scientific explanation, New York 1965 (trad. it., Aspetti della spiegazione scientifica, Milano 1986). HEMPEL C. G., Philosophy of natura! science, Englewood Cliffs (N.J.) 1966 (trad. it., Filosofia delle scienze naturali, Bologna 1968). HERTZ H., Die Prinzipien der Mechanik, 1894 (trad. ingl., The principle of mechanics, New York 1956). HoEFER C. e RosENBERG A., Empirica! equivalence, underdetermination, and the systems of the world, in « Philosophy of Science », 91, 1994, pp. 592-607. HoRWicH P., Three forms of realism, in « Synthese », 51, 1982, pp. I8I-20I. ]EFFREY R.C., Statistica! explanation vs. statistica! inference, 1969, in REscHER N. 1971, pp. 104113.
KANT L, Kritik der reinen Vernunft, 1787 (trad. it., Critica della ragion pura, Roma-Bari 1985). KANT 1., Kritik der Urtheilskraft, 1790 (trad. it., Critica del giudizio, Roma-Bari 1960). KITCHER P., Explanation, conjuction and unification, in «}ournal of Philosophy», 73, 1976, pp. 207·212. KITCHER P. e SALMON W, Van Fraassen on explanation, in «}ournal of Philosophy», 84, 1987, pp. 315-330. KNoWLES D. (a cura di), Explanation and its limits, Cambridge 1990. KoHN A., False prophets, Oxford 1986 (trad.it., Falsi profeti, Bologna 1991). KòRNER S. (a cura di), Observation and interpretation, Londra 1957.
www.scribd.com/Baruhk
Bibliografia
KuHN T.S., The copernican revolution, Harvard 1957 (trad. it., La rivoluzione copernicana, Torino 1972). KuHN T.S., The structure of scientific revolutiom, Chicago 1970 (trad. it., La struttura delle rivoluzioni scientifiche, Torino 1978). KuiPERS T.A. (a cura di), What is closer-to-the-truth?, Amsterdam 1987. LAKATOS 1., Falsification and the methodology of scientific research programmes, 1970 (trad. it., in LAKATOS I. e MusGRAVE A. 1970, pp. 164-276). LAKATOS 1., History of science and its rational recomtructiom, in Boston Studies in the Philosophy of Science, vol. VIII, 1971, pp. 91-135 (trad. it., in LAKATOS I. e MusGRAVE A. 1970, pp. 366408).
LAKATOS I. e FEYERABEND P.K., Sull'orlo della scienza, Milano 1995. LAKATOS I. e MusGRAVE A. (a cura di), Criticism and the growth of knowledge, Cambridge 1970 (trad. it., Critica e crescita della conoscenza, Milano 1976). LAUDAN L., A confotation of convergent realism, in « Philosophy of science », 48, 1981, pp. 19-48. Ristampato in BoYD R., GASPER P. e TRoUT J.D. 1991, pp. 223-245. LAUDAN L. e LEPLIN J., Empirica! equivalence and underdetermination, in <<Joumal of Philosophy », 88, 1991, pp. 449-472. LEPLIN J. (a cura di), Scientific realism, Berkdey 1984. LEVI 1., The fixation of belief and its undoing, Cambridge 1991. LINSKY L. (a cura di), Semantics and the philosophy of language, illinois 1952 (trad. it., Semantica e filosofia del linguaggio, Milano 1969). LIPTON P., Inference to the best explanation, Londra 1991. LORENTZ H.A., The theory of electrom, Lipsia 1909. MAxwm.L G., The ontological status of theoretical entities, in « Minnesota Studies in the Philosophy of Science», III, 1963, pp. 3-27. Mc LAUGHLIN R. (a cura di), What? Where? Why?, Dordrecht 1982. MILLER D. W., Popper's qualitative theory of verisimilitude, in «Brit. Joum. Phil. Sci.», 25, 1974a, pp. 167-177. MILLER D.W, On the comparison offalse theories by their bases, in « Brit. Journ. Phil. Sci.», 25, 1974b, pp. 178-188. NAGEL E., The structure of science, New York 1961 (trad. it., La struttura della scienza, Milano 1984).
NrrNILUOTO 1., What we do with verisimilitude?, in « Philosophy of Science », 49, 1982, pp. 181-197·
O'HEAR A., Karl Popper, Londra 1980 (trad. it., Karl Popper, Roma 1984). 0PPENHEIM P. e HEMPEL C.G ., Studies in the logic ofexplanation, in « Philosophy of Science », 15, 1948, pp. 135-175· PARRINI P., Una filosofia senza dogmi, Bologna 1980. PEIRCE C.S., On pragmatism and the normativ sciences, 1903, in PEIRCE C.S. 1931-1958, pp. 514-540.
PEIRCE C. S., Issues of pragmaticism, 1905, in PEIRCE C.S. 1931-1958, pp. 5438-5463. PEIRCE C.S., Collected papers of Charles Sanders Peirce, 1931-1958, a cura di HARTSHORNE C., WEISs P. e BuRKs A., Cambridge (Mass.), voli. I-VIII. PERA M., Scienza e retorica, Roma-Bari 1991.
www.scribd.com/Baruhk
Bibliografia
PERELMAN C. e 0LBRECHTS-TYTECA L., Traité de l'argumentation. La nouvelle rhétorique, Parigi 1958 (trad. it., Trattato dell'argomentazione, Torino 1966).
PERELMAN C., Logica e retorica, in AA.VV., Logiche moderne, Istituto dell'Enciclopedia Italiana, Roma 1981. Prrr ]., Theories of explanations, Oxford 1988. Przzr C. (a cura di), Leggi di natura, modalità, ipotesi, Milano 1978. POPPER K.R., The propensity interpretation of the calculus of probability and quantum theory, in K6RNER S. 1957, pp. 65-70. POPPER K.R., The logic of scientific discovery, Londra 1959 (trad. it., Logica della scoperta scientifica, Torino 1970). PoPPER K.R., Conjectures and refotations, Londra 1963-19693 (trad. it., Congetture e confutazioni, Bologna 1972). PoPPER K.R., Objective knowledge, Oxford 1972 (trad. it., Conoscenza oggettiva, Roma 1975). POPPER K.R., Autobiography, 1974a, in ScHILPP P.A. 1974, pp. 2-181. Ristampato come PoPPER K.R. 1976. PoPPER K.R., Replies to my critics, 1974b, in ScHILPP P.A. 1974, pp. 961-1197· POPPER K.R., Unended quest, Fontanae/Collins, 1976 (trad. it., La ricerca non ha fine, Roma 1978).
QurNE W.V.O., From a logica! point of view, Cambridge (Mass.) 1953 (trad. it., Il problema del significato, Roma 1966). QurNE W.V.O., World and object, Cambridge (Mass.) 1960 (trad. it., Parola e oggetto, Milano 1970).
QurNE W.V.O., Ontological relativity and other essays, New York 1969 (trad. it., La relatività ontologica e altri saggi, Roma 1986). QurNE W.V.O., Science and sensibilia, in The Immanuel Kant Lectures, Stanford 1980 (trad. it., La scienza e i dati di senso, Roma 1987). QurNE WV.O., Theories and things, Cambridge (Mass.) 1981a. QurNE W.V.O., Saggi filosofici, a cura di LEONELLI M., Roma 1981b. QurNE W.V.O., From stimulus to science, Cambridge (Mass.) 1995. QurNTILIANO M.F., Jnstitutio oratoria. RAILTON P., Probability, explanation and information, in « Synthese », 48, 1981, pp. 233-256. Ristampato in RuBEN D.-H. 1993, pp. 161-181. REICHENBACH H., Experience and prediction, Chicago 1938. REscHER N., The stochastic revolution in the nature of scientific explanation, in « Synthese », 14, 1962, pp. 200-215. REsCHER N., Scientific explanation, New York 1970. REscHER N. (a cura di), Essays in honor of Cari G. Hempel, Dordrecht 1971. Rossr P. (a cura di), La filosofia, 4 voll., Torino 1994. RUBEN D.-H. (a cura di), Explanation, Oxford 1993. RussELL B., On the notion of cause, in « Proceedings of the Aristotelian Society », 13, 19121913, pp. 1-26. SALMON W., The status of prior probabilities in statistica! explanation, in « Philosophy of Science », 32, 1965, pp. 137-146. SALMON W (a cura di), Statistica! explanation and statistica! relevance, Pittsburgh 1971.
www.scribd.com/Baruhk
Bibliografia SALMON W, Mc LAUGHLIN R. SALMON W., SALMON W.,
Comets, pollen, and dreams: some rejlections on scientific explanation, 1982, in 1982, pp. 155-178.
Scientific explanation and the causa! structure of the world, Princeton 1984. Four decades of scientific explanation, Minneapolis 1989-1990' (trad. it., 40 anni di spiegazione scientifica, Padova 1992). SANTAMBROGIO M., W.V. Quine, 1992a, in SANTAMBROGIO M. 1992b, pp. 179-222. SANTAMBROGIO M. (a cura di), Introduzione alla filosofia analitica del linguaggio, Roma-Bari
1992b. SCHILPP P.A. (a cura di), The philosophy of Karl Popper, La Salle (Ill.) 1974. ScRIVEN M., Definitions, explanations and theories, in « Minnesota Studies in the Philosophy of Science », n, 1958, pp. 99-125. SKYRMS B., Causa! necessity, New Haven 1981. SMART ].]., Philosophy and scientific realism, New York 1963. TICHY P., On Popper's definitions of verisimilitude, in « Brit. Journ. Phil. Sci.», 25, 1974, pp. 155·160. TouLMIN S., An examination of the piace of reason in ethics, 1953 (trad. it., Ragione e etica, Roma 1970). TouLMIN S., The uses of argumentation, Cambridge 1958 (trad. it., Gli usi dell'argomentazione, Torino 1970). VAN FRAASSEN B., The pragmatics of explanation, in « American Philosophical Quarterly », 35, 1977, pp. 173-190. Ristampato in RuBEN D.-H. 1993, pp. 275-309 (trad. it., in ZORZATO P.L. 1992, pp. 117-141). VAN FRAASSEN B., The scientific image, Oxford 1980 (trad. it., L'immagine scientifica, Bologna 1985). VAN FRAASSEN B., Laws and symmetry, Oxford 1984. WmGENSTEIN L., Tractatus logico-philosophicus, Londra 1921 (trad. it., Tractatus logico-philosophicus, Torino 1964). WRIGHT L., Teleological explanations, Berkeley 1976. ZoRZATO P.L. (a cura di), Spiegare e comprendere, Ferrara 1992.
CAPITOLO SECONDO
Logica e calcolatore APPEL K. e HAKEN W., Il teorema dei quattro colori, in «Le Scienze», n3, gennaio 1978, pp. 54-65. BIBEL A., Automated theorem proving, Braunschweig 1982. BLEDSOE WW e LovELAND D.W (a cura di), Automated theorem proving: after 25 years, Providence (R.I.) 1984. BLEDSOE W.W., Some automatic proofi in analysis, in BLEDSOE WW. e LOVELAND D.W 1984, pp. 89-n8. BooLE G., A mathematical analysis of logic, Cambridge 1847 (trad. it., Analisi matematica della logica, Torino 1993).
510
www.scribd.com/Baruhk
Bibliografia BooLE G., An investigation of the laws of thought, Londra 1854 (trad. it., Indagine sulle leggi del pemiero, Torino 1976). BoYER R.S. e MooRE J.S., A computational logic, New York 1979. BoYER R.S. e MooRE J.S., Proofchecking, theorem-proving, and program-verification, in BLEDSOE WW e LoVELAND D.W. 1984, pp. 119-132. BovER R.S. e MooRE J.S., Turing completeness ofLISP, in BLEDSOE W.W. e LOVELAND D.W 1984, pp. 133-167. BuNDY A., The computer modelling of mathematical reasoning, New York 1983. CHANG C.-L. e LEE R.C.-T., Symbolic logic and mechanical theorem proving, New York 1973. CHURCH A., An umolvable problem of elementary number theory, in «America! Journal of Mathematics », 58, 1936, pp. 345-363. CHURCH A., The ca/culi of lambda-conversion, Princeton 1941. CoLMERAUER A., l
511
www.scribd.com/Baruhk
Bibliografia
HILBERT D., Gesammelte Abhandlungen, a cura di ZERMELO E., 3 voli., Berlino 1935 (trad. it. parziale, Ricerche sui fondamenti della matematica, Napoli 1978). HINTIKKA J., Knowledge and belief, Ithaca (N.Y.) 1962. HoARE C.A.R., An axiomatic basis of computer programming, in « Communications of the ACM», 12, 1969, pp. 576-580. HoRGAN J., The death of proof, in « Scientific American », ottobre 1993, pp. 74-84 (trad. it., Morte della dimostrazione, in «Le Scienze», 304, dicembre 1993, pp. 82-91). HuET G., Conjluent reductions: abstract properties and applications to term rewriting systems, RR 259, Laboratoire de Recherche en Informatique et Automatique, IRIA, Francia, 1977. KNurn D.E. e BENDIX P.B., Simple word problems in universal algebra, in LEECH J. (a cura di), Computational problems in abstract algebra, Oxford 1970, pp. 263-297. KoLATA G., How can computer get common sense, in « Science », 217, 1982, pp. 1237-1238. KowALSKI R., Logic for problem solving, Amsterdam 1979. LAM C.WH., THIEL L.H. e SwiERCZ S., The non-existence of finite projective planes of order 10; in « Canadian J. Math. », 41, 1989, pp. II17-1123. LLOYD J.W, Foundations of logic programming, Berlino 1986 (II ed.). LoLLI G., La Macchina e le dimostrazioni, Bologna 1987. LoLLI G., Logica e Intelligenza Artificiale, in «Sistemi Intelligenti», 3, 1991, pp. 7-36. LOLLI G., Filosofia e Informatica, in Rossi P. (a cura di), La filosofia, Torino, 1994, vol. n, pp. 219-267. LOVELAND D.W., Automated theorem proving: a logica/ basis, Amsterdam 1978. MANGIONE C. e Bozzr S., Storia della logica, Milano 1993. MANNA Z. e PNUELL A., The temporal logic of reactive and concurrent systems, Berlino 1992. McCARTHY J., Computer programs for checking mathematical proofi, in DEKKER ].C.E. (a cura di), &cursive fonction theory, Providence (R.I.) 1962, pp. 219-227. McCARTHY J. e HAYES P.J., Some philosophical problems from the standpoint of Artificial Intelligence, in MELTZER B. e MICHIE D. (a cura di), Machine Intelligence 4, Edimburgo 1969, pp. 463-502.
McCARTHY J., Circumscription - a form of non-monotonic reasoning, in « Artificial Intelligence », 13, 1980, pp. 295-323. McDERMOTT D. e DoYLE J., Non-monotonic logic l, in « Artificial Intelligence », 13, 1980, pp. 41-72. MICHAELSON G., An introduction to fonctional programming through lambda calculus, Reading (Mass.) 1988. NEWELL A., SHAW J.C. e SIMON H.A., Empirica/ explorations with the logic theory machine: a case study in heuristics, in Proceedings ~st Joint Company Conference, 1957, pp. 218-239, ristampato in SIEKMANN J. e WRIGHTSON G. 1983, vol. I, pp. 49-73NEWELL A. e SIMON H., Computer science as an empirica/ inquiry: symbols and search, in « Communications of the ACM», 19, 1976, pp. 113-126 (trad. it. in HAUGELAND J., a cura di, Progettare la mente, Bologna 1989, pp. 43-75). PRArr V., Thinking machines. The evolution of Artificial Intelligence, Oxford 1987 (trad. it., Macchine pensanti, Bologna 1990). PRAwrrz D., An improved proof procedure, in « Theoria », 26, 1960, pp. 102-139. RoBINSON A., Proving theorems (as done by man, logician, or machine), in Summaries of talks 512
www.scribd.com/Baruhk
Bibliografia
presented at the Summer Institute for symbolic logic, Ithaca (N.Y.) 1957, ristampato in SIEKMANN J. e WRIGHTSON G., 1983, vol. I, pp. 74-76. ROBINSON J.A., A machine-oriented logic based on the resolution principle, in «}oumal of the ACM», 12, 1965, pp. 23-41. Scorr D., Continuous lattices, in LAWVERE F.W. (a cura di), Toposes, algebraic geometry and logic, Berlino 1972, pp. 97-136. SIEKMANN J. e WRIGHTSON G. (a cura di), Automation of reasoning, 2 voli., Berlino 1983. SMETS PH., MAMDANI E.H., DuBOIS D. e PRADE H. (a cura di), Non-standard logics for automated reasoning, New York 1988. STARK W.R., LISP, !ore and logic, Berlino 1990. STOY J.E., Denotational semantics, Cambridge (Mass.) 1977. THAYSE A. (a cura di), From standard logic to logic programming: introducing a logic based approach to Artificial Intelligence, New York 1988. THAYSE A. (a cura di), From modallogic to deductive databases, New York 1989. TuruNG A.M., Mechanical Intelligence, a cura di lNCE D.C., Amsterdam 1992 (trad. it. parziale, Intelligenza meccanica, Torino 1994). TuRNER R., Logics for Artificial Intelligence, Chichester 1984. TYMOCZKO T., The four-color problem and its philosophical significance, in « The J oumal of Philosophy », 76, 1979, pp. 57-83. VoN WRIGHT G.H., An essay in modallogic, Amsterdam 1951. WANG H., Toward mechanical mathematics, in «IBM J. Res. Develop. », 4, 1960, pp. 2-22. Wos L., OVERBEEK R., LusK E. e BoYLE J., Automated reasoning. introduction and applications, Englewood Cliffs (N.J.) 1984. Wos L. e WINKER S., Open questions solved with the assistance of AURA, in BLEDSOE W.W. e LoVELAND D.W. 1984, pp. 73-88. Wos L., Automated reasoning.· 33 basic research problems, Englewood Cliffs (N.].) 1988.
CAPITOLO TERZO
Teoremi e congetture
ARNow V.I., Catastrophe theory, New York 1986 (trad. it., Teoria delle catastrofi, Torino 1990). AscHBACHER M., Sporadic groups, Cambridge 1994. BoURBAKI N., L'architecture des mathématiques, in LE LIONNAIS F. (a cura di), Les grand courants de la pensée mathématique, Parigi 1962. CASACUBERTA C. e CASTELLET M. (a cura di), Mathematical research today and tomorrow, New York 1992. CHANGEUX J.-P. e CONNES A., Matière à penser, Parigi 1990 (trad. it., Pensiero (! materia, Torino 1991). CONWAY J.H., CuRTIS R.T., NoRTON S.P., PARKER R.A. e WILSON R.A., Atlas offinite groups, Oxford 1985. DEVLIN K., Mathematics, the New Golden Age, Londra 1988 (trad. it., Dove va la matematica?, Torino 1994). 513
www.scribd.com/Baruhk
Bibliografia DIEUDONNÉ
J.,
The work of Nicolas Bourbaki, in «American Mathematical Monthly»,
n.
1970, pp. 134-145·
DIEUDONNÉ ]., Panorama des mathématiques pures: le choix bourbachique, Parigi 1977. DIEUDONNÉ]., Matematica e logica nel r98o, in Rossi P. (a cura di), La nuova ragione, Bologna 1981. DIEUDONNÉ J., A history of algebraic and differential topology, I900-r96o, Basilea 1988. EDWARDS H.M., Fermat's Last Theorem. A genetic introduction to algebraic number theory, New York 1977. EPSTEIN D. e LEVY S., Experimentation and proof in mathematics, in « Notices of the AMS», 42, 1995. pp. 670-674· FALTINGS G., The proof of Fermat's Last Theorem by R. Taylor and A. Wiles, in « N otices of the AMS», 42, 1995, pp. 743-746. GoRENSTEIN D., Finite simple groups: an introduction to their classification, New York 1983. GORENSTEIN D., Classif.Jing the finite simple groups, in « Bull. AMS», 14, r, 1986, pp. 1-99. HAo W ANG, Dalla matematica alla filosofia, Torino 1984. HoRGAN J., The death of proof, in « Scientific American », ottobre 1993, pp. 74-84 (trad. it., Morte della dimostrazione, in «Le Scienze», 304, dicembre 1993, pp. 82-91). KRANTZ S., The immortality of proof, in « Notices of the AMS», 41, 1994, pp. 10-13. ]AFFE A. e QuiNN F., "Theoretical Mathematics»: toward a cultura/ syntesis of mathematics and theoretical physics, in « Bull. AMS», 29, 1993, pp. r-13. LANG S., Mordell's review, Siegel's letter to Morde/l Diophantine geometry and 2oth century mathematics, in « Notices of the AMS», 42, 1995, pp. 339-350. MAcLANE S., Mathematics. Form and function, New York 1986. MANDELBROT B., Les objets fractals: forme, hasard et dimemion, Parigi 1975 (trad. it., Gli oggetti frattali, Torino 1987). PEJTGEN H.-O. e R.iCHTER P.H., The beauty of fractals. lmages of complex dynamical systems, New York 1986 (trad. it., La bellezza dei frattali, Torino 1987). REMMERT R., Complex analysis in "Sturm und Drang>>, in « The Mathematical Intelligencer », 17, 2, 1995·
RIBENBOIM P., 13 Lectures on Fermat's Last Theore.m, New York 1979. RuBIN K. e S!LVERBERG A., A report on Wiles' Cambridge lectures, in « Bull. AMS», 31, r, 1994, pp. 15-38. RuELLE D., Hasard et chaos, Parigi 1991 (trad. it., Caso e caos, Torino 1992). SoLOMON R., On finite simple groups and their classification, in « Notices of the AMS», 42, 1995. pp. 231-239· TAYLOR R. e WILES A., Ring-theoretic properties of certain Hecke algebra, in « Annals of Mathematics », 141, 1995, pp. 553-572. THOM R., Stabilité structurelle et morphogénèse, New York 1972 (trad. it., Stabilità strutturale e morfogenesi, Torino 1980). THOM R., Catastrophe theory: its present state and future perspectives, in Dynamical systems, in « Lect. Notes Math. », 468, Heidelberg 1975. THOM R., Parabole e catastrofi, a cura di GIORELLO G. e MORINI S., Milano 1980. THOM R., Leaving mathematics for philosophy, in CASACUBERTA C. e CASTELLET M. 1992, pp. 2-12. WEIL A., Souvenirs d'apprentissage, Basilea 1991.
www.scribd.com/Baruhk
Bibliografia
WHITNEY H., On singularities of mappings of euclidean spaces I: mappings of the piane into the piane, in « Annals of Mathematics », 62., 1955, pp. 374-410. WILES, A., Modular elliptic curves and Fermat's Last Theorem, in « Annals of Mathematics », 141, 1995, pp. 443-55!. YAu S.T., The cu"ent state and prospects of geometry and nonlinear differential equatiom, in CASACUBERTA C. e CASTELLET M. 1992., pp. 2.9-39. ZARISKI 0., The fondamenta! ideas of abstract algebraic geometry, Proceedings International Congress Mathematicians I950, Providence 1952..
CAPITOLO QUARTO L 1ntelligenza Artificiale
ANDERSON J.A. e RosENFELD E. (a cura di), Neurocomputing, Cambridge (Mass.) 1988. AsHBY WR., Design fora brain, Londra 1952. (trad. it., Progetto per un cervello, 11 ed., Milano 1970). AsPRAY W. e BuRKs A. (a cura di), Papers of fohn von Neumann on computing and computer science, Cambridge (Mass.) 1987. BAR-HILLEL Y., The present status of automatic tramlation of languages, in Advances in Computers I, New York 1960, pp. 91-163. BARNDEN ].A. e PoLLACK J.B. (a cura di), High-leve/ connettionism models, Norwood (N.}.) 1991. BECHTEL W., Philosophy of mind, Hillsdale (N.J.) 1988 (trad. it., Filosofia della mente, Bologna 1992.). BECHTEL W. e ABRAHAMSEN A., Connectionism and the mind, Oxford 1991. BOBROW D.G. e WINOGRAD T., An overview ofKRL-o, a knowledge representation language, in «Cognitive Science », r, 1977, pp. 3-46. BoBROW D.G. (a cura di), Special issue on non-monotonic logic, in « Artificial lntelligence », 13, I-2., 1980. CADOLI M. e ScHAERF M., A survey on complexity results for non-monotonic logics, in «Journal of Logic Programming », 17, 1993, pp. 12.7-r6o. CELLUCCI C., From closed to open systems, in Akten des IJ. Internationalen Wittgemtein-Symposium, vol. 1, Vienna 1993, pp. 2.06-zzo. CHURCHLAND P.S., Neurophilosophy. Toward a unified science of the mind-brain, Cambridge (Mass.) 1986. CHURCHLAND P.S. e SEJNOWSKI T.]., The computational brain, Cambridge (Mass.) 1992. (trad. it., Il cevello computazionale, Bologna 1995). CORDESCHI R., La teoria dell'elaborazione umana dell'informazione. Aspetti critici e problemi metodologici, in SOMENZI V. (a cura di), Evoluzione e modelli, Roma 1984, pp. 319-42.0. CORDESCHI R., Indagini meccanicistiche sulla mente: la cibernetica e l'intelligenza artificiale, in SoMENZI V. e CoRDESCHI R. 1994. CREVIER D., AI. The tumultuous history of the search for Artificial Intelligence, New York 1993. DEAN T. e BoNASSO R.P., I992 AAAI robot exibition and competition, in «AI Magazine », 14, 1993, pp. 35-48.
www.scribd.com/Baruhk
Bibliografia
DENNETI D.C., lntentional systems, in «Journal of Philosophy », 68, 1971, pp. 87-106. Ristampato in DENNETT D.C., Brainstorms: philosophical essays on mind and psychology, Montgomery 1978 (trad. it., Braimtorms: saggi filosofici sulla mente e la psicologia, Milano I99I). DREYFUS H.L., What computers stili can't do, Cambridge (Mass.) I992. DYER M.G., Toward synthesizing artificial neural networks that exibit cooperative intelligent behavior: some open issues in Artificial Life, in « Artificial Life », I, 1994, pp. m-134. FEIGENBAUM E.A. e FELDMAN J. (a cura di), Computers and thought, New York 1963. FEIGENBAUM E.A., Artificial lntelligence: themes in the second decade, in Proceedings of Information Processing 68, Amsterdam I969, pp. roo8-I024. FEIGENBAUM E.A., BucHANAN B.G. e LEDERBERG J., On generality and problem solving: a case study using DENDRAL program, in Machine lntelligence 6, Edimburgo 197I, pp. 165-190. FoDOR ].A., The modularity of mimi, Cambridge (Mass.) 1983 (trad. it., La mente modulare, Bologna 1988). FoDOR J.A. e PYLYSHYN Z.W, Connectionism and cognitive architecture: a critica! analysis, in « Cognition », 28, 1988, pp. 3-71. FRIXIONE M., Logica, significato e intelligenza artificiale, Milano 1994. GELERNTER H., Realization of a geometry-theorem machine, in Proceedings of an lnternational Conftrence on Information Processing, Parigi I959, pp. 273-282. Ristampato in FEIGENBAUM E.A. e FELDMAN J. I963. GEYMONAT L., Storia del pemiero filosofico e scientifico, 8 voli., Milano I976. GIUNCHIGLIA F., An epistemologica! science of common seme, in «Journal of Artificial lntelligence », 1996. GoLDSTINE H.H., The computer from Pasca! to von Neumann, Princeton (N.].) 1972 (trad. it., Il computer da Pasca! a von Neumann, Milano 1981). GREEN C., Theorem-proving by resolution as a basis for question-amwering systems, in Machine Intelligence 4, New York I969, pp. 183-205. GREENBERGER M. (a cura di), Management and the computer of the future, New York I962.
GUTKNECHT M. e PFEIFER R., An approach to integrating expert systems with connectionistic networks, in <
HAYES P.]., The logic offrames, in METZING D. (a cura di), Frame conceptiom and text understanding, Berlino I979· HAYES P.]., On the diffirence between psychology andAI, in YAZDANI M. e NATAYANAN A. (a cura di), Artificial lntelligence: human ejfects, Chichester I984. HoDGES A., A/an Turing: the enigma, New York 1983 (trad. it., Storia di un enigma. Vita di A/an Turing, Torino 1991). HoLLAND J.H., Concerning the emergence of tag-mediated lookahead in classifier systems, in « Physica D», 42, 1990, pp. 188-201. HoPFIELD J.]., Neural networks and physical systems with emergent collective computational abilities, in Proceedings of the National Academy of Sciences of USA, 79, 1982, pp. 2554-2558. Ristampato in ANDERSON J.A. e RosENFELD E. I988.
www.scribd.com/Baruhk
Bibliografia
HURLBERT A. e PoGGIO T., Making machines (and Artificial lntelligence) see, in « Daedalus », II?, 1988, pp. 213-240. HuTCHINS WJ. e SoMERS H.L., An introduction to machine translation, New York 1992. }OHNSON-LAIRD P.N., Menta! models, Cambridge 1983 (trad. it., Modelli mentali, Bologna 1988). KIRSH D. (a cura di), Foundation ofArtificiallntelligence. Special volume, in « Artificial Intelligence », 47, 1991, pp. 1-3. LANGLEY P., SIMON H.A., BRADSHAW G.L. e ZYTKow J.M., Scientific discovery. Computational exploration of the creative processes, Cambridge (Mass.) 1987. LANGTON C.G. (a cura di), Artificial !ife, Reading (Mass.) 1989. LENAT D., On automated scientific theory formation: a. case study using the AM program, in Machine lntelligence 9, New York 1979, pp. 251-286. LENAT D., EURISKO: A program that learns new heuristics and domain concepts, in « Artificial Intelligence », 21, 1983, pp. 61-98. LENAT D. e FEIGENBAUM E.A., On the thresholds of knowledge, in KIRSH D. 1991, pp. 185-250. MAEs P. e NARDI· D. (a cura di), Meta-leve! architectures and reflection, Amsterdam 1988. MAREK W e TRUSZCZYNSKI M., Non-monotonic logic. Context-dependent reasoning, Berlino 1993. MARR D., Vision, New York 1982. McCARTHY J., Computers with common seme, in Proceedings of the symposium on mechanisation of thought processes, vol. I, Teddington 1959, pp. 75-84 (trad. it. in SoMENZI V. e CoRDESCHI R. 1994). McCARTHY J. e HAYES P., Some philosophical problems from the standpoint of Artificiallntelligence, in Machine lntelligence 4, Edimburgo 1969, pp. 463-502. McCARTHY J., Mathematical logic and Artificial lntelligence, in « Daedalus », II?, 1988, pp. 297•3II. McCoRDUCK P., Machines who think, San Francisco 1979. McCULLOCH WS. e PITTS W, A logica! calculus of the ideas immanent in nervous activity, in « Bulletin of Mathematical Biophysics », 5, 1943, pp. II5-137· Ristampato in ANoERSON J.A. e RosENFELD E. 1988 e in McCuLLOCH WS. 1989. McCULLOCH W.S., Summary of the points of agreement reached in the previous nine conforences on cybernetics, in VoN FOESTER H. e altri, Cybernetics. Circular causa! and feedback mechanisms in biologica! and social systems, New York 1955, pp. 69-80. Ristampato in McCULLOCH WS. 1989. McCULLOCH WS. e altri, The design of machines to simulate the behavior of the human brain, in «IRE Transactions on Electronic Computers », EC-5, 4, 1956, pp. 240-255. McCULLOCH W.S., Collected works ofWarren S. McCulloch, a cura di McCULLOCH R., 4 voli., . Salinas (Cal.) 1989. McDERMOTT D., Artificial lntelligence meets natura! stupidity, in « Sigart Newsletter », 57, 1976, pp. 4·9· McDERMOTT D., A critique of pure reason, in « Computational Intelligence », 3, 1988, pp. 155·160. METROPOLIS N., HoWLETT J. e RoTA G.C. (a cura di), A history of computing in twentieth century, New York 198o. MICHALSKI R.S., CARBONELL J.G. e MITCHELL T.M. (a cura di), Machine leaming. An Artificial lntelligence approach, Palo Alto 1983.
www.scribd.com/Baruhk
Bibliografia
MINSKY M.L., Some methods of heuristic programming and Artificial lntelligence, in Proceedings of the symposium on mechanisation of thought processes, vol. I, Teddington 1959, pp. 3-27 (trad. it. parziale in SoMENZI V. e CoRDESCHI R. 1994). MINSKY M.L. (a cura di), Semantic information processing, Cambridge (Mass.) 1968. MINSKY M.L. e PAPERT S., Perceptrons, Cambridge (Mass.) 1969. Ristampato nel 1988, con prefazione e postfazione degli autori. MINSKY M.L., A framework for representing knowledge, in WINSTON P. (a cura di), The psychology of computer vision, New York 1975, pp. 2I1-277. MrNsKY M.L., The society ofmind, New York 1987 (trad. it., La società della mente, Milano 1989). NEBEL B., Reasoning and revision in hybrid representation systems, Berlino 1990. NEWELL A., SHAW J.C. e SIMON H.A., Elements of a theory of human problem-solving, in « Psychological Review », 65, 1958, pp. 151-166. NEWELL A., SHAW J.C. e SIMON H.A., The processes of creative thinking, in GRUBER H.E., TIRREL G. e WERTHEIMER H. (a cura di), Contemporary approaches to creative thinking, New York 1962 (trad. it. in SoMENZI V. e CoRDESCHI R. 1994). NEWELL A. e SIMON H.A., Human problem solving, Englewood Cliffs 1972. NEWELL A. e SIMON H.A., Computer Science as empirica/ inquiry: symbols and search, in « Communications of the ACM», 19, 1976, pp. n3-126. NEWELL A., Physical symbol systems, in «Cognitive Science », 4, 1980, pp. 135-183. NEWELL A., The knowledge leve4 in « Artificial Intelligence », 18, 1982, pp. 87-127. NEWELL A., Unified theories of cognition, Cambridge (Mass.) 1990. NEWQUIST H.P., The brain makers, Indianapolis 1994· NILSSON N.J., Problem solving methods in Artificial lntelligence, New York 1971 (trad. it., Metodi per la risoluzione dei problemi in Intelligenza Artificiale, Milano 1976). 0ETTINGER A. G., Programming a digitai computer to learn, in « Philosophical Magazine », 43, 1952, pp. 1243-1263. PAPERT S., One AI or many?, in « Daedalus », II?, 1988, pp. 1-14. PENROSE R., The emperor's new mind, Oxford 1989 (trad. it., La mente nuova dell'imperatore, Milano 1992). PFEIFER R. e altri, Putting connectionism in perspective, in PFEIFER R. e altri (a cura di), Connectionism in perspective, Amsterdam 1989. PUTNAM H., Minds and machines, in HooK S. (a cura di), Dimensions of mind, New York 1960. Ristampato in PuTNAM H., Mind, language and reality, Cambridge 1975 (trad. it., Mente, linguaggio e realtà, Milano 1987). PYLYSHYN Z.W., Computation and cognition. Toward a foundation for cognitive science, Cambridge (Mass.) 1984. RABIN M.O., Theoretical impediments to Artificial lntelligence, in Proceedings of Information Processing 74, Amsterdam 1974, pp. 615-617. RAPHAEL B., The thinking computer, San Francisco 1976. RosENBLATT F., The Perceptron: a probabilistic mode/ for information storage and organization in the brain, in « Psychological Review », 65, 1958, pp. 386-408. Ristampato in ANoERSON J.A. e RosENFELD E. 1988. RosENBLATT F., Two theorems of statistica/ separability in the Perceptron, in Proceedings of the symposium on mechanisation of thought processes, vol. I, Teddington 1959, pp. 421-450. 518
www.scribd.com/Baruhk
Bibliografia
RosENBLUETH A., WIENER N. e BIGELOW J., Behavior, purpose and teleology, in «Philosophy of Science », 10, 1943, pp. 18-24 (trad. it. in SoMENZI V. e CoRDESCHI R. 1994). Ross T.J., Fuzzy logic with engineering applicatiom, New York 1995. RuMELHART D.E., McCLELLAND J.L. e PDP Research Group, Para/le/ Distributed Processing: exploratiom in the microstructure of cognition, 2 voll., Cambridge (Mass.) 1986 (trad. it. parziale, PDP: microstruttura dei processi cognitivi, Bologna 1991). RussELL S. e NoRWIG P., Artificial lnteUigence. A modern approach, Englewood Cliffs (N.J.) 1995. SAMUEL A.L., Some studies in machine learning using the game of checkers, in «ffiM Journal of Research and Development », 3, 1959, pp. 211-229. Ristampato in FEIGENBAUM E.A. e FELDMAN
J.
1963.
ScHANK R. C., Conceptual dependency: a theory of natura/ language understanding, in « Cognitive Psychology », 3, 1972, pp. 552-631. ScHANK R.C. e NASH-WEBBER B.L. (a cura di), Theoretical issues in naturallanguage processing, Cambridge (Mass.) 1975. ScHANK R.C. e AaELSON R.P., Scripts, plans, goals and understanding, Hillsdale (N.J.) 1977. SEARLE J.R., Minds, braim, and programs, in « Behavioral and Brain Sciences », 3, 1980, pp. 417-424.
SERRA R. e ZANARINI G., Sistemi complessi e processi cognitivi, Bologna 1994. SHANNON C.E., Programming a computer for playing chess, in « Philosophical Magazine », 41, 1950, pp. 256-275· SHANNON C.E., Computers and automata, in « Proceedings of the IRE>>, 41, 1953, pp. 12341241 (trad. it. in SoMENZI V. e CoRDESCHI R. 1994). SIEKMANN ]. e WRIGHTSON G. (a cura di), Automation of reasoning. Classica/ papers on computational logic, Berlino 1983. SIMON H.A., The contro/ of mind by reality: human cognition and problem solving, in FARBER S.M. e WILSON R.H.L. (a cura di), Man and civilization, New York 1961. SIMON H.A., The theory ofproblem solving, in Proceedings of Information Processing 7I, Amsterdam 1972, pp. 261-277. SIMON H.A. e SIKL6SSY L. (a cura di), Representation and meaning, Englewood Cliffs (N.].) 1972.
SIMON H.A., Models of my /ife, New York 1991. SKALA H.]., TERMINI S. e TRILLAS E. (a cura di), Aspects of vagueness, Dordrecht 1984. SMITH B.C., The owl and electric encyclopedia, in KIRSH D. 1991, pp. 251-288. SMOLENSKY P., On the proper treatment of connectionism, in « Behavioral and Brain Sciences », 11, 1988, pp. 1-74 (trad. it., Il connessionismo tra simboli e neuroni, Genova 1992). SoMENZI V. e CoRDESCHI R. (a cura di), La filosofia degli automi. Origini deU'Intelligenza Artificiale, Torino 1994. STEELS L., The Artificial Life roots to Artiflcial Intelligence, in « Artificial Life », 1, 1994, pp. 75-110.
TAMBURRINI G., Mechanistic theories in cognitive science: the import of Turing's thesis, in Logic, methodology and philosophy of science, Dordrecht 1996. TRAUTTEUR G., Comciousness: distinction and reflection, Napoli 1994· TuRING A.M., Computing machinery and intelligence, in « Mind », 59, 1950, pp. 433-460 (trad. it. in SoMENZI V. e CoRDESCHI R. 1994).
www.scribd.com/Baruhk
Bibliografia
TURING A.M., Collected works, 4 voli., Amsterdam 1992. WEISBUCH G., Complex systems dynamics, Reading (Mass.) 1991. WEIZENBAUM J., Computer power and human reason, San Francisco 1976. WIENER N., Cybernetics, or contro! and communication in the animai and in the machine, Cambridge (Mass.) 1948 (trad. it., Cibernetica, II ed., Milano 1968). WILKES M. V., Can machines think?, in « Spectator », 6424, 1951, pp. 177-178. WILKES M. V., Can machines think?, in « Proceedings of the IRE>>, 41, 1953, pp. 1230-1234. WINOGRAD T., Understanding naturallanguage, New York 1972. WINOGRAD T. e FLORES F., Understanding computers and cognition: a new foundation for design, Norwood (N.J.) 1986 (trad. it., Calcolatori e conoscenza, Milano 1987).
CAPITOLO QUINTO Neuroscienze e filosofia della mente
ALTMAN J., Organic foundations of animai behavior, New York 1966. ARBIB M. e HESSE M.B., The construction of reality, Cambridge 1966 (trad. it., La costruzione della realtà, Bologna 1992). ARBrn M., Brain, machines and mathematics, Berlino 1987. ARMsTRONG D.M., A materialist theory of the minrl, Londra 1968. AsANUMA C., Mapping movements within a moving motor map, «Trends in Neuroscience», 14, 1991, pp. 217-219. BARCLAY C.R e WELLMAN H.M., Accuracies and inaccuracies in autobiographical memories, in «Journal of Memory and Language», 25, 1985, pp. 93-103. BARTLETT F.C., Remembering, Cambridge 1932 (trad. it., La memoria. Studio di psicologia sperimentale, Milano 1971). BERLYNE D.E., Conflict, activation and creativity, Crofts 1965 (trad. it., Conflitto, attivazione e creatività, Milano 1971). BISIACH E. e LuzzATI C., Unilateral neglect of representational space, in « Cortex », 14, 1978, pp. 129-133· BLAKEMORE C., Mechanism of the minrl, Cambridge 1976 (trad. it., I meccanismi della mente, Roma 1981). BwcK N. (a cura di), Imagery, Cambridge (Mass.) 1981. BoAKES R., From Darwin to behaviorism, Cambridge 1984 (trad. it., Da Darwin al comportamentismo, Milano 1986). BoDEN M.A., Artificial intelligence and human freedom, in YAZDANI M. e NARAYANAN A. (a cura di), Artificial intelligence: human efficts, Chichester 1984, pp. 103-121. BODEN M.A., La simulazione della mente al calcolatore è socialmente dannosa?, in VIALE R. (a cura di), Mente umana e mente artificiale, Milano 1989, pp. 3-17. BoWER G.H., Mood and memory, in « American Psychologist », 36, 1981, pp. 129-148. BROADBENT D., Perception and communication, Londra 1958. BRUNER J., In search of mind· essays in autobiography, New York 1983. BRUNER J., Acts of meaning, Cambridge (Mass.) 1990. 520
www.scribd.com/Baruhk
Bibliografia BuNGE M., Emergence of the mind, in « Neuroscience », 21, 1977, pp. 501-509. CALISSANO P., Neuroni, Milano 1992. CAMHr J.M., Neuroethology: nerve cells and the natura/ behavior in animals, Sunderland (Mass.) 1984. CAMPBELL K., Body and mind, Londra 1970 (trad. it., Il corpo e la mente, Roma 1976). CARLSON N.R., Physiology and behavior, New York 1981 (trad. it., Fisiologia del comportamento, Bologna 1986). CHANGEUX J.P. e DANCHIN A., Selective stabilization of developing synapses as a mechanism for the specification of neural networks, in «Nature», 224, 1976, pp. 705-712. CHANGEUX J.P., L'homme neurona4 Parigi 1983 (trad. it., L'uomo neuronale, Milano 1983). CHURCHLAND SMITII P., A perspective on mind-brain research, in «}ournal of Philosophy », 77. 1980, pp. 185-207. CHURCHLAND SMITH P., Matter and consciousness, Cambridge (Mass.) 1984. CIBA FouNDATION, Brain and mind, in «Ciba Foundation Symposium », 69, Amsterdam 1979· CLARKE E. e }ACYNA L. S., Nineteenth-Century origins of neuroscientific concepts, Berkeley 1987. CoRSI P. (a cura di), The enchanted 1oom. Chapters in the history of neuroscience, New YorkOxford 1991. CRAIK K.J.M., The nature of explanation, Cambridge 1943. CrucK F. e KocH C., Towards a neurobiological theory of consciousness, Seminars in « Neuroscience », 2, 1990, pp. 263-275. CruTCHLEY M., The divine banquet of the brain and other essays, New York 1979. CROOK J., The evolution of human consciousness, Oxford 1980. CuRTiss S., Genie. A psycholinguistic study of a modern-day «Wild child», New York 1977. DENNETT D., Brainstorms. Philosophical essays on mind and psychology, Cambridge (Mass.) 1978 (trad. it., Brainstorms, saggi filosofici sulla mente e la psicologia, Milano 1991). DEUTSCH J.A. e HowARTH C.L., Some tests of a theory of intracranial selfitimulation, in « Psychological Review », 70, 1963, pp. 444-460. DREYFUS H.L., What computers can't do, New York 1979. EccLES J., The human mistery, Berlino-Heidelberg 1979 (trad. it., Il mistero uomo, Milano 1990). EcCLES J., Evolution of the brain: creation of the Self, Londra-New York 1989 (trad. it., Evoluzione del cervello e creazione dell'io, Roma 1990). EDELMAN G.M., Neural darwinism: the theory of neuronal group selection, New York 1987. EnELMAN G.M., Topobiology: an introduction to molecular embriology, New York 1988 (trad. it., Topobiologia, Torino 1993). EDELMAN G.M., The remembered present. A biologica! theory of consciousness, New York 1989 (trad. it., Il presente ricordato, Milano 1991). FARAH M.J., The neural basis of menta/ imagery, « Trends in Neuroscience », 12, 1989, pp. 395-399· FonoR J.A., The modularity of mind, Cambridge (Mass.) 1983 (trad. it., La mente modulare, Bologna 1988). FoooR J.A., ~ paramecia ®n't have menta/ representations, University of Minnesota Press 1984. FRIJDA N.H., The emotions, Cambridge 1986 (trad. it., Emozioni, Bologna 1990).
521
www.scribd.com/Baruhk
Bibliografia
GARDNER H., The mind's new science, New York 1985 (trad. it., La nuova scienza della mente, Milano 1985). GAVA G., Scienza e filosofia della coscienza, Milano 199I. GAVA G., Dal cervello alla mente: pematori del xx secolo, Trieste 1994. GAZZANIGA M., Social brain: discovering the networks of the mimi, New York 1985. GIORELLO G. e STRATA P. (a cura di), L'automa spirituale, Roma-Bari 199x. GoLD P.E. e McGAUGH J.L., Neurobiology and memory: modulators correlates and assumptiom, in TEYLER T. (a cura di), Brain and learning, Stanford (Conn.) 1978. Goon M.I., Substance-induced dissociative disorders and psychiatric nosology, in «Journal of Clinica! Psychopharmacology », 9, 1989, pp. 88-92. GREGORY R., Eye and brain. The psychology of seeing, Oxford 1966 (trad. it., L'occhio e il cervello, Milano 1966). GREGORY R., Mind in science. A history of explanatiom in psychology and physics, Oxford 1981 (trad. it., La mente nella scienza, Milano 1985). GREGORY R., Odd perceptiom, Londra 1986 (trad. it., Curiose percezioni, Bologna 1989). GRUNEBERG M. e MoRRis P. (a cura di), Aspects of memory, WJL 1, The practical aspects, Londra-New York 1992. HARR!NGTON A., Oltre la frenologia: teorie della localizzazione in età contemporanea, in CoRSI P. (a cura di), La fabbrica del pensiero, Milano 1989, pp. 206-215. HARRis ].E. e MoRRis P.F. (a cura di), Everyday memory, actiom and absentmindedness, Londra 1984. HEBB D.O., The organization of behavior: a neuropsychological theory, New York 1949 (trad. it., L'organizzazione del comportamento, Milano 1975). HESs B. e PwoG D. (a cura di), Neurosciences and ethics, Heidelberg 1988. HoBSON J.A. e Mc CARLEY R.W., The brain as a dream generator: an activation synthesis. Hypothesis of dream process, in «American Journal of Psychiatry», 134, 1977, pp. 1335-1348. HoBSON J.A., The dreaming brain, New York 1988 (trad. it., La macchina dei sogni, Firenze 1992).
HoRN G., RisE S.P.R. e BATESON P.P.G., Monocular imprinting and regional incorporation of triated uracil into the brains of intact and splitbrain chicks, in « Brain Research », 56, 1973, pp. 227-237·
HUBEL D.H. e WIESEL T.N., The period of susceptibility to the physiological ejfects of unilateral eye closure in kittens, in «}ournal of Physiology », 206, 1970, pp. 419-436. HUBEL D.H. e WIESEL T.N., Brain mechanisms of vision, in The neurosciences: paths of discovery, Cambridge 1975, pp. 245-263. HUGELAND ]., Artificial intelligence: the very idea, Cambridge (Mass.) 1985. ]ACKENDOFF R., Consciousness and the computational mimi, Cambridge (Mass.) 1987 (trad. it., Coscienza e mente computazionale, Bologna 1990). }oHNSON-LAIRD P.N., The computer and the mind, Cambridge (Mass.) 1988 (trad. it., La mente e il computer, Bologna 1990). KANDEL E.D. e SCHWARTZ J.H. (a cura di), Principles of neuroscience, New York 1985 (trad. it., Principi di neuroscienze, Milano 1988). KANDEL E.R., Brain and behavior, in KANDEL E.D. e ScHWARTZ J.H. (a cura di), Principles of neuroscience, New York 1985 (trad. it., Principi di neuroscienze, Milano 1988). 522
www.scribd.com/Baruhk
Bibliografia
KANIZSA G., Grammatica del vedere, Bologna 1980. KANIZSA G., Vedere e pemare, Bologna 1991. KAPLAN H.J., SADDOCK B.J. e GREBB J.A., Kaplan and Saddock's synopsis ofpsychiatry (vn ed.), Baltimora 1994. KosSLYN S.M., Ghosts in the mind's machine, New York 1983 (trad. it., Le immagini della mente, Firenze 1989). LEVI MoNTALCINI R., The nerve growth factor, in « Annals of the New York Academy of Sciences », n8, 1964, pp. 149-156. LLINAS R. (a cura di), The biology of the brain: from neurom to networks, New York 1989. LocKE J., Saggio sull'intelletto umano (r67r), Bari 1957. LoEWENSTEIN R.J., Multiple personality disorder, in « Psychiatric Clinics of North America», 14, 1991, pp. 489-493. LuND R.D., Development and plasticity of the brain, New York 1978. MAc LEAN P.D., A triune concept of brain and behavior, Toronto I973· MAFFEI L. e MECACCI L., La visione. Dalla neurofisiologia alla psicologia, Milano I979· MANCIA M., Neurofisiologia e vita mentale, Bologna 1980.
MARR D., Vision: a computational investigation into the human representation and processing of visual information, San Francisco 1982. McCULLOCH W. S., Embodiments of mind, Cambridge (Mass.) 1989. McGAUGH J.L., Modulation of memory storage processes, in SoLOMAN P.R., GOETHALS G.R., KELLEY C.M. e STEPHENS B.R. (a cura di), Memory: interdisciplinary approaches, New York 1989, pp. 33-63. McNAUGHTON N., Biology and emotion, Cambridge 1989. MECACCI L., Cervello e storia, Roma 1977. MINsKY M.L., The society of mind, New York 1986 (trad. it., La società della mente, Milano 1989). MISHKIN M., MALAMUT B. e BACHEVALIER J., Memories and habits: two neural systems, in LYNCH G., McGAUGH J.L. e WEINBERG N.M. (a cura di), Neurobiology of learning and memory, New York 1984, pp. 65-77. MoLTZ H., Contemporary imtinct theory and the fixed action pattern, in « Psychological Review», 72, 1965, pp. 22-47. MoRUZZI G. e MAGOUN H., Brain stem reticular formatidH and activation of the EEG, in «EEG and Clinica! Neurophysiology », r, 1949, pp. 455-473. MouNTCASTLE V.B., An organizing principle for cerebral function. The unit module and the distributed system, in « The Neurosciences Fourth Study Program », Cambridge (Mass.) 1978. NAGEL T., The view from nowhere, Cambridge 1986. Ows J. e MILNER P., Positive reinforcement produced by electrical stimulation of septal area and other regiom of rat brain, in «Journal of Comparative and Physiological Psychology », 47, 1954, pp. 419-427. OLIVERIO A., Storia naturale della mente, Torino 1984. OLIVERIO A., Biologia e filosofia della mente, Roma-Bari 1995. PENFIELD W e RAsMUSSEN T., The cerebral cortex of man: a clinica! study of localization of function, New York 1950. PENFIELD W, The mistery of minrl, Princeton (N.J.) 1975 (trad. it., Il mistero del cervello, Firenze 1991).
523
www.scribd.com/Baruhk
Bibliografia
PENROSE R., The emperor's new minrl, Oxford r989 (trad. it., La mente nuova dell'imperatore, Milano r992). PoPPER K.R. e EccLES J.C., The self and its brain, Basilea I977 (trad. it., L'io e il suo cervello, Roma I978). PRIBRAM K.H. e RoBINSON P.R., Biologica/ contributions to the development of psychology, in BuxroN C.E. (a cura di), Points of view in the history of psychology, New York r985, pp. 345-387. PuRVES D., Body and brain: a trophic theory of neural connections, Cambridge (Mass.) r988. PuTMAN H., Representation and reality, Cambridge (Mass.) r988. RoRTY R., In defense of eliminative materialism, in « The Review of Metaphysic », n2, I970, pp. II2-I2I. RosE S., The making of memory, Londra r992 (trad. it., La fabbrica della memoria, Milano !994).
RosENFIELD 1., The invention of memory: a new view of the brain, New York r988 (trad. it., L'invenzione della memoria, Milano r989). ROSENZWEIG M.R., Environmental complexity, cerebral change and behavior, in « American Psychologist », 2r, r966, pp. 32r-332. SCHACHTER S.P e SINGER J.E., Cognitive, social and physiological determinants of emotional state, in « Psychological Review », 69, r962, pp. 379-399. ScHMIDT R.F., Fundamentals of neurophysiology, New York I978 (trad. it., Fondamenti di neurofisiologia, Bologna r985). SEARLE J., lntentionality, Cambridge r983 (trad. it., Della intenzionalità, Milano r985). SEARLE J., Minds, brains and science, Cambridge (Mass.) r984. SHEPHERD G., Neurobiology, New York r983. SKINNER B.F., Science and human behavior, New York I953 (trad. it., Scienza e comportamento, Milano I97I). SOMENZI V. e CoRDESCHI R. (a cura di), La filosofia degli automi, Torino r986. SoMENZI V., La materia pensante, Milano I99I. SPERRY R. W., A modified concept of consciousness, in « Psychological Review », 76, r969, pp. 532-536.
SPERRY R.W, Latera/ specialization in the surgically separated hemisphere, in SCHMITT F.O. e WoRDEN F.G. (a cura di), The neurosciences: third study program, Cambridge (Mass.) I974· SQUIRE L.R. e ZoLA-MORGAN S., The neuropsychology of memory, in 0LTON D.S., GAMZU E. e CORKIN S. (a cura di), Memory dysfonction: an integration of anima/ and human research from preclinical and clinica/ perspective, in « Annals of the New York Academy of Sciences », 444, I985, pp. I37-I49· SQUIRE L.R. e OuvERIO A., Biologica/ memory, in CoRSI P. r99r, pp. 240-27r. STELLAR J.R. e STELLAR E., The neurobiology of motivation and reward, New York r985. SzENTÀGOTHAI J., The «Module» concept in cerebral cortex architecture, in « Brain Research », 95, !975, pp. 475-496. VAN PRAAG H.M., BRowN S.L., AsNrs G.M., KAHN R.S., KoRN M.L., HARKAvv-FRIEDMAN ].M. e WETZLER S., Beyond serotonin: a multiaminergic perspective on abnormal behavior, in BROWN S.L. e VAN PRAAG H.M. (a cura di), The role of serotonin in psychiatric disorders, New York r99r, pp. 302-329. VIALE R., Mente umana, mente artificiale, Milano r989.
www.scribd.com/Baruhk
Bibliografia WEISKRANTZ L. (a cura di), Thought without language, Oxford 1988. WINOGRAD E.P. e SoLOWAY R.M., Reminding as a basis for temporal judgments, in «Joumal of Experimental Psychology », u, 1985, P.P· 262-271. YouNG J.Z., The memory system ofthe brain, Oxford 1966. ZEKI S., The visual image in mind and brain, in « Scientific American », Special issue 71, 1992, pp. 52-60 (trad. it. in «Le Scienze», 291, 1992, pp. 36-44).
CAPITOLO SESTO
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane AGENO M., Le radici della biologia, Milano 1986. ALLEN T.F.H. e STARR T.B., Hierarchy: perspectives for ecologica/ complexity, Chicago 1982. ALvAREz L.W., ALvAREz W., AsARO F. e MICHEL H.V., Extraterrestrial cause for the cretaceoustertiary extinction, in « Science », 208, 1980, pp. 1095-uo8. AMMERMAN A.J. e CAVALLI SFORZA L.L., La tramizione neolitica e la genetica di popolazioni in Europa, Torino 1984, 1986. AYALA F.J. e DoBZHANSKY T., Studies in the philosophy of biology, Londra 1974. BATESON G., Steps to an ecology of minri, New York 1972 (trad. it., \.iorso un'ecologia della mente, Milano 1976). BATESON G., Mind and Nature, New York 1979 (trad. it., Mente e Natura, Milano 1984). BATESON P., The active role of behaviour in evolution, in Ho M.W. e Fox S.W. 1988, pp. 191-207. BATESON P. e D'UDINE B., Exploration in two inbred straim of mice and their hybrids: additive and interactive models of gene expression, in «Animai Behaviour », 34, 1986, pp. 1026-1032. BENDALL D.S. (a cura di), Evolution from molecules to men, Cambridge 1983. BocCHI G. e CERUTI M. (a cura di), La sfida della complessità, Milano 1985. BoccHI G. e CERUTI M., Origini di storie, Milano 1993. BocK W.J., Microevolutionary sequences as a fondamenta/ concept in macroevolutionary models, in « Evolution », 24, 1970, pp. 704-722. BocK W.J., The definition and recognition of biologica/ adaptation, in « American Zoologist », 20, 1980, pp. 217-227. BoNNER J.T., The evolution of complexity, Princeton 1988. BoWLER P.J., Evolution. The history of an idea, Berkeley 1989. BRACK A., Supports et transferts d'informatiom prébiotiques, in LocQUIN M.V. 1987, pp. 251276. BRANDON R.N., Adaptation and evolutionary theory, in « Stud. Hist. Phil. Sci.», 9, 1978, pp. 191-206. BRANDON R.N. e BURIAN R.M. (a cura di), Genes, organisms, populations. Controversies over the units of selection, Cambridge (Mass.) 1984. BRITTEN R.J. e DAVIDSON E.H., Gene regulation for higher cells: a theory, in « Science », 165, 1969, pp. 349-357· Buss L. W., The evolution of individuality, Princeton 1987.
525
www.scribd.com/Baruhk
Bibliografia CAVALLI-SFORZA L.L., PIAZZA A., MENOZZI P. e MouNTAIN J., Recomtruction of human evolution: bringing together genetic, archaeological and linguistic data, in « Proceedings of the National Academy of Sciences », 85, 1988, pp. 6oo2-6oo6. CAVALLI-SFORZA L.L. e CAVALLI-SFORZA F., Chi siamo. La storia della diversità umana, Milano 1993· CAVALLI-SFORZA L.L., PIAZZA A. e MENOZZI P., History and geography of human genes, Princeton 1993. CERUTI CERUTI CERUTI CERUTI
M., Il vincolo e la possibilità, Milano 1986. M. e LASZLO E. (a cura di), Physis. Abitare la Terra, Milano 1988. M., La danza che crea. Evoluzione e conoscenza nell'epistemologia genetica, Milano 1989. M. (a cura di), Evoluzione e Conoscenza. L'epistemologia genetica di jean Piaget e le prospettive del costruttivismo, Bergamo 1992. CERUTI M., Evoluzione senza fondamenti, Roma-Bari 1995. Cwuo P., Oasis in space. Earth history from the beginning, New York 1988. CoNTINENZA B., CoRDESCHI R., GAGLIASSO E., LUDOVICO A. e STANZIONE M., Evoluzione e modelli, Roma 1984. COVENEY P. e HIGHFIELD R., The arrow of time. A voyage through science to so/ve time's greatest mystery, Londra 1990 (trad. it., La freccia del tempo, Milano 1991). DAWKINS R., The selfish gene, Oxford 1976 (trad. it., Il gene egoista, Bologna 1980). DEPEW D.J. e WEBER B.H. (a cura di), Evolution at a crossroads. The new biology and the new philosophy of science, Cambridge (Mass.) 1985. DEPEW D.J. e WEBER B.H., Darwinism evolving. Systems dynamics and the genealogy of natura! selection, Cambridge (Mass.) 1995. DOBZHANSKY T., Genetics and the origin of species, 1937 (ristampa New York 1982). DoBZHANSKY T., What is an adaptive trait?, in « American Naturalist », 90, 1956, pp. 337347·
DoBZHANSKY T., Adaptedness and fitness, in LEWONTIN R. 1968. DoNOVAN S.K. (a cura di), Mass extinctiom: processes and evidence, Londra 1989. DOVER G.A. e FLAVELL R.B. (a cura di), Genome evolution, Londra 1982. D'UDINE B., L'individuo e la trasformazione del concetto di ambiente in biologia, in « Oikos », 2, 1991, pp. 153-170. DuPRÉ J. (a cura di), The latest on the best. Essays on evolution and optimality, Cambridge (Mass.) 1987. DYSON F., Origim of !ife, Cambridge 1985 (trad. it., Origini della vita, Torino 1988). EIGEN M. e WINKLER R., Das Spiel Naturgesetze steuern den Zufo/4 Monaco 1975 (trad. it., Il gioco. Le leggi naturali governano il caso, Milano 1986). EIGEN M., Stufen zum Leben. Die Jruhe Evolution im Visier der Molekularbiologie, Monaco 1987 (trad. it., Gradini verso la vita. L'evoluzione prebiotica alla luce della biologia molecolare, Milano 1992). ELDREDGE N. e Gouw S.J., Punctuated equilibria: an alternative to phyletic gradualism, in ScHOPF T.J.M. (a cura di), Models in paleobiology, San Francisco 1972, pp. 82-115 (trad. it., Gli equilibri punteggiati: un'alternativa al gradualismo filetico, in ELDREDGE N. 1991, pp. 221-260). ELDREDGE N., Alternative approaches to evolutionary theory, in « Bull. Carnegie Mus. Nat. Hist. », 13, 1979, pp. 7-19.
www.scribd.com/Baruhk
Bibliografia ELDREDGE N. e CRACRAFT ]., Phylogenetic patterns and the evolutionary process, New York ELDREDGE N. e TATTERSALL 1., The myths of human evolution, New York 1982 (trad. it., l JJliti dell'evoluzione umana, Torino 1984). ELDREDGE N., Unfinished synthesis. Biologica! hierarchies and modern evolutionary thought, New York 1985. ELDREDGE N., Time Frames. The rethinking of darwinian evolution and the theory of punctua-
ted equilibria, New York 1985 (trad. it., Strutture del tempo, Firenze 1991). ELDREDGE N., Information, economics and evolution, in «Avv. Rev. Eco!. Syst. », 17, 1986, pp. 351-369. ELDREDGE N., Lifè pulse. Episodes .from the story of the fossi! record, New York 1987. ELDREDGE N., Macroevolutionary dynamics. Species, niches, and adaptative peaks, New York 1989a. ELDREDGE N., Punctuated equilibria, rates of change and large-scale entities in evolutionary
systems, in «]. Social. Bio!. Struct. >>, 12, 1989b, pp. 173-184ELDREDGE N., The miner's canary. Unraveling the mysteries of extinction, New York 1991 (trad. it., Il canarino del minatore. Il mistero dell'estinzione delle specie animali e il jùturo del nostro pianeta, Milano 1995). ELDREDGE N., Guardare l'organizzazione del vivente con gli occhi del gene: un altro sguardo, in CERUTI M. 1992, pp. 89-105. ERESHEFSKY M. (a cura di), The units of evolution. Essays on the nature of species, Cambridge (Mass.) 1992. GHISELIN M., The triumph of darwinian method, Berkeley 1969. GLEICK ]., Chaos: making a new science, New York 1987 (trad. it., Caos. Il sorgere di una nuova scienza, Milano 1989). GLEN W. (a cura di), The mass-extinction. Debates: how sciences works in a crisis, Stanford 1994· GowscHMIDT R., The materia! basis of evolution, New Haven (Conn.) 1982 (I ed. 1940). GooDWIN B., Morphogenesis and heredity, in Ho M.W. e Fox S.W. 1988, pp. 145-162. GooDWIN B. e SAUNDERS P. (a cura di), Theoretical biology. Epigenetic and evolutionary order
.from complex systems, Edimburgo 1989. GooDWIN B., Una scienza delle qualità, in « Oikos >>, 4, 1991, pp. 79-90. GooDWIN B., The evolution of generic forms, in VARELA F. e Duruv ].P. 1992, pp. 213-226. GooDWIN B., Riflessioni su di uno specchio mezzo argentato, in CERUTI M. 1992, pp. 61-74. Gouw S.]., Ever since Darwin. Reflections in natura! history, New York 1977a (trad. it., Questa idea della vita, Roma 1984). Gouw S.]., Ontogeny and phylogeny, Cambridge (Mass.) 1977b. Gouw S.]. e ELDREDGE N., Punctuated equilibria: The tempo and mode of evolution reconsidered, in « Paleobiology >>, 3, 1977, pp. II5-151. Gouw S.]. e LEWONTIN R.C., The spandrels of San Marco and the panglossian paradigm: a critique of the adaptationist programme, in « Proc. R. Soc. London >>, B, 205, 1979, pp. 581-598. Gouw S.]., fs a new and genera l theory of evolution emerging?, in « Paleobiology >>, 6, 1980, pp. II9-130.
Gouw S.]., On the evolutionary biology of constraints, in « Daedalus >>, Spring 1981, pp. 39-52. 527
www.scribd.com/Baruhk
Bibliografia
GouLD S.J., The panda's thumb. More reflections in natura! history, New York 1980 (trad. it., Il pollice del panda, Roma 1983). GouLD S.}., The meaning ofpunctuated equilibrium and its in validating a hierarchical approach to macroevolution, in MILKMAN R. (a cura di), Perspectives on evolution, Sunderland (Mass.) 1982 (trad. it., Gli equilibri punteggiati convalidano un approccio gerarchico alla macroevoluzione, in « Scientia », vol. u8, 1983, pp. 159-173). GouLD S.}., Darwinism and the expansion of evolutionary theory, in « Science », 216, 1982, pp. 380-387 (trad. it., Il darwinismo e l'ampliamento della teoria evoluzionista, in BocCHI G. e CERUTI M. 1985, pp. 227-245). GouLD S.J., The uses of heresy, Introduzione a GoLDSCHMIDT R., The materia! basis of evolution, New Haven 1982. GouLD S.J., Hen's teeth and horse's toes, New York 1983 (trad. it., Quando i cavalli avevano le dita, Milano 1984). GouLD S.J., Irrelevance, submission, and partnership: the changing role ofpalaeontology in Darwin's three centennials, and a modest proposal for macroevolution, in BENDALL D.S. 1983, pp. 347-366. GouLD S.}., The hardening of the modern synthesis, in GRENE M. (a cura di), Dimensions of darwinism, Cambridge 1983, pp. 71-93. GouLD S.}., The flamingo's smile, New York 1985 (trad. it., Il sorriso del fenicottero, Milano 1987). GouLD S.J ., Time's arrow, time's cycle, Cambridge (Mass.) 1987 (trad. it., La freccia del tempo, il ciclo del tempo, Milano 1989). GouLD S.J., An urchin in the storm, New York 1987 (trad. it., Un riccio nella tempesta, Milano 1991). GouLD S.J., GILINSKY N.L. e GERMAN R.Z., Asymmetry of lineages and the direction of evolutionary time, in « Science », 236, 1987, pp. 1437-1441. GouLD S.J., On replacing the idea of progress with an operational notion of directionality, in NITECKI M.H. 1988, pp. 319-338. GouLD S.J., Wonderful !ife, New York 1989 (trad. it., La vita meravigliosa, Milano 1990). GouLD S.J., Foreword a Ross R.M. e ALLMON W.D. 1990, pp. VII-XI. GouLD S.J., Bully for brontosaurus, New Ym:k 1991 (trad. it., Bravo brontosauro, Milano 1991). GouLD S.J., Risplendi grande lucciola, Milano 1991. · GouLD S.J., La ruota della fortuna e il cuneo del progresso, in PRETA L. 1992, pp. 39-73GouLD S.J. e ELDREDGE N., Punctuated equilibrium comes of age, in «Nature>>, 366, 1993, pp. 223-227. GouLD S.J., Eight little piggies, New York 1993 (trad. it., Otto piccoli porcellini, Milano 1994). GRAY R., Metaphors and methods: behavioural ecology, panbiogeography and the evolving synthesis, in Ho M.W. e Fox S.W. 1988, pp. 209-242. GRUBER H., Darwin on man: a psycological study of scientiflc creativity, New York 1984. Ho M.W. e SAUNDERS P.T., Beyond neo-darwinism. An epigenetic approach to evolution, m «Journal of theoretical Biology >>, 78, 1979, pp. 573-591. Ho M.W. e SAUNDERS P.T. (a cura di), Beyond neo-darwinism. An introduction to the new evolutionary paradigm, Londra 1984. Ho M. W., SAUNDERS P.T. e Fox S. W., A new paradigm for evolution, in « New Scientist >>, 27 Feb., 1986, pp. 4-43.
www.scribd.com/Baruhk
Bibliografia
Ho M.W. e Fox S.W. (a cura di), Evolutionary processes and metaphors, Chichester 1988. Ho M.W., The rainbow and the worm, the physics of organisms, world scientific, Singapore 1993· HoFFMAN A., Arguments on evolution. A paleontologist's perspective, New York 1989. HuLL D.L., A matter of individuality, in « Philosophy of Science », 45, 1978, pp. 335-360. HuLL D.L., Units of evolution: a metaphysical essay, ristampato in BRANDON R.N. e BuRIAN R.M. 1984, pp. 142-160. HuLL D.L., Historical entities and historical narratives, in HooKWAY C. (a cura di), Minds, machines and evolution, 1984, pp. 17-42. HuLL D.L., Science as a process, Chicago 1988. HuLL D.L., The metaphysics of evolution, Albany (N.Y.) 1989. HsO K.J., The great dying, New York 1986 (trad. it., La grande moria dei dinosauri, Milano 1993). ]ACOB ]ACOB ]ACOB
F., Evoluzione e bricolage, Torino 1978. F., Le jeu des possibles, Parigi 1981 (trad. it., Il gioco dei possibili, Milano 1983). F., Molecular tinkering in evolution, in BENDALL D.S. 1983, pp. 131-144.
}ANTSCH E., The self organizing universe, Oxford 1980. }ANTSCH E. (a cura di), The evolutionary vision, Boulder (Colo.) 1981. KAUFFMAN S.A., The origins of order. Self-organization and selection in evolution, Oxford 1993. KrMURA M., The neutra! theory of molecular evolution, in « Scientific American », 241, 5, 1979, pp. 94-104 (trad. it., La teoria della neutralità nell'evoluzione molecolare, in PARISI V. e Rossr L. 1985, pp. 18-27). KrMURA M., The neutra! theory of molecular evolution, Cambridge 1983. KrNG J.L. e JuKES T. H., Non-darwinian evolution, in « Science », 164, 1969, pp. 788-798. KrNG M. C. e WILSON A.C., Evolution at two levels in humans and chimpanzees, in « Science », 188, 1975, pp. 107-n6. KrNSEY A.C., Supra-specific variation in nature and classification from the viewpoint of zoology, in « American Naturalist », 71, 1937. KoESTLER A. e SMYTHIES J.R. (a cura di), Beyond reductionism: new perspectives in the !ife sciences, Londra 1969. LASZLO E., lntroduction to systems philosophy, New York 1972. LASZLO E., Evoluzione, Milano 1986 (trad. ingl., Evolution: the grand synthesis, Boston 1987). LASZLO E. (a cura di), The new evolutionary paradigm, New York 1991. LEWIN R., A lopsided view of evolution, in « Science », 241, 291, 1988. LEWONTIN R.C. (a cura di), Population biology and evolution, New York 1968. LEWONTIN R.C., The genetic basis of evolutionary change, New York 1974. LEWONTIN R.C., Adattamento, in AA.VV. Enciclopedia Einaudi, vol. r, Torino 1977, pp. 198214. LEWONTIN R. C., Adaptation, in « Scientific American », 239, 9, 1978, pp. 156-169 (trad. it., L'adattamento, in PARISI V. e Rossr L., a cura di, Adattamento biologico, in Quaderni di «Le Scienze», 27, 1985, pp. 3-13). LEWONTIN R.C., Gene, organism and environment, in BENDALL D.S. 1983, pp. 273-286. LEWONTIN R. C., The organism as the subject and object of evolution, in « Scientia », n8, 1983, pp. 65-82.
www.scribd.com/Baruhk
Bibliografia
LEWONTIN R.C., Biology as ideology. The doctrine o/DNA, Concord (Ont.) 1991 (trad. it., Biologia come ideologia. La dottrina del DNA, Torino 1993). LocQUIN M.V. (a cura di), Aux origines de la vie, Parigi 1987. LoVELOCK J., Gaia: a new look at /ife on Earth, Londra 1979 (trad. it., Torino 1981). LovELOCK J., Gaia: una proprietà coesiva della vita, in BaccHI G. e CERUTI M. 1985. LovELOCK J., La terra è un organismo vivente?, in CERUTI M. e LASZLO E. 1988. LOVELOCK J., The ages of Gaia. A biography of our living Earth, Londra 1988. MARGULIS L. e SAGAN D., Micro-cosmos. Four billion years of microbial evolution, New York 1986 (trad. it., Microcosmo, Milano 1986). MARGULIS L. e ScHWARTZ K., Five kingdoms. An illustrated guide to the phyla of the Earth, New York 1988. MARGULIS L. e FEYSTER R. (a cura di), Symbiosis as a source of evolutionary innovation. Speciation and morphogenesis, Cambridge (Mass.) 1991. MATURANA H. e VARELA F., Autopoiesis and cognition. The realisation of the living, Dordrecht 1980 (trad. it., Autopoiesi e cognizione, Padova 1985). MATURANA H. e VARELA F., The tree of knowledge, Boston 1985 (trad. it., L'albero della conoscenza, Milano 1986). MAYR E., Systematics and the origin of species, New York 1942, ristampa 1982. MAYR E., The emergence of evolutionary novelties, in TAX S. 1960. MAYR E., Anima/ species and evolution, Cambridge (Mass.) 1963 (trad. it., L'evoluzione delle specie animali, Torino 1970). MAYR E., Population, species and evolution, Cambridge (Mass.) 1970. MAYR E., Evolution and the diversity of /ife, Cambridge (Mass.) 1976 (trad. it., Evoluzione e varietà dei viventi, Torino 1983). l\1:AYR E., The growth of biologica/ thought. Diversity, evolution, and inheritance, Cambridge (Mass.) 1982 (trad. it., Storia del pensiero biologico, Torino 1990). MAYR E., Toward a new philosophy of biology. Observations of an evolutionist, Cambridge (Mass.) 1988. MAYR E., One long argument. Charles Darwin and the genesis of modern evolutionary thought, Cambridge (Mass.) 1991 (trad. it., Un lungo ragionamento. Genesi e sviluppo del pensiero darwiniano, Torino 1994). MERLEAU-PONTY M., La structure du comportement, Parigi 1942 (trad. it., La struttura del comportamento, Milano 1963). MoNOD J., Le hasard et la nécessité, Parigi 1970 (trad. it., Il caso e la necessità, Milano 1970). MoRIN E., La méthode. Il La vie de la vie, Parigi 1980 (trad. it. parziale, La vita della vita, Milano 1987). NITECKI M.H. (a cura di), Evolutionary progress, Chicago 1988. 0YAMA S., The ontogeny of information. Developmental systems and evolution, Cambridge 1985. 0YAMA S., Pensare l'evoluzione. L'integrazione del contesto nell'ontogenesi, nella filogenesi, nella cognizione, in CERUTI M. 1992, pp. 47-60. PARISI V. e Rossi L. (a cura di), Adattamento biologico, in Quaderni di «Le Scienze», 27, 1985, pp. 18-27. PIAGET J., Biologie et connaissance, Parigi 1967 (trad. it., Biologia e conoscenza, Torino 1983). PIAGET]., L'épistémologie génétique, Parigi 1970 (trad. it., L'epistemologia genetica, Bari 1993).
530
www.scribd.com/Baruhk
Bibliografia
PIAGET J., Adaptation vitale et psychologie de l'intelligence. Sélection organique et phénocopie, Parigi 1974. PIAGET J., Le comportement, moteur de l'évolution, Parigi 1976. PIATTELLI PALMARINI M., Evolution, selection, and cognition, in QuAGLIARELLO E., BERNARDI G. e ULLMAN A. 1987. PoLLARD J.W. (a cura di), Evolutionary theory: paths into the future, Chichester 1984. PoLLARD J.W., fs ~ismanns ba"ier absolute?, 1979, in Ho M.W. e SAUNDERS P.T. 1984, pp. 291-314.
POLLARD J.W., New genetic mechanisms and their implications for the formation of new species, in Ho M.W e Fox S.W 1988, pp. 63-84. PREISS B. e S!LVERBERG R., The ultimate dinosaurs, New York 1992 (trad. it., Dinosauri, Milano 1992). PRETA L. (a cura di), Immagini e metafore della scienza, Roma-Bari 1992. PruGOGINE I., e STENGERS I., La nouvelle alliance, Parigi 1979 (trad. it., La nuova alleanza. Metamorfosi della scienza, Torino 1981). PruGOGINE I., From being to becoming. Time and complexity in the physical sciences, San Francisco 1980 (trad. it., Dall'essere al divenire, Torino 1986). PruGOGINE 1., e Nicous G., Mastering complexity, Monaco 1986. PruGOGINE 1., Organizzazione, in AA.W. Enciclopedia Einaudi, vol. x, Torino 1980. PruGOGINE 1., Vincolo, in AA.W. Enciclopedia Einaudi, vol. XIV, Torino 1981. PruGOGINE 1., Entre le temps et l'éternité, Parigi 1988 (trad. it., Tra il tempo e l'eternità, Torino 1989).
QuAGLIARELLO E., BERNARDI G. e ULLMAN A. (a cura di), From enzyme adaptation to natura! philosophy, Amsterdam 1987. RAuP D.M., On the early origim of major biologica! groups, in « Paleobiology », 9, 107, 1983. RAuP D.M., The nemesis affair, New York 1986. RAuP D.M., e ]ABLONSKI D. (a cura di), Patterns and processes in the history of lift, New York 1986. RAVP D.M., Testing the fossi! record for evolutionary progress, in NITECKI M.H. 1988, pp. 293-317· RAuP D.M., Extinction. Bad genes or bad luck, New York 1991 (trad. it., Estinzione. Cattivi geni o cattiva sorte?, Torino 1994). RlCHARDS R., The mora! foundatiom of the idea of evolutionary progress: Darwin, Spencer, and the Neo-Darwinians, in NITECKI M.H. 1988, pp. 129-148. RIEDL R., A systems-analytical approach to macro-evolutionary phenomena, in « The Quarterly Review of Biology », 52, 4, !977, pp. 351-370. RIEDL R., Order in living organisms, Chichester 1978. Ross R.M. e ALLMON W.D. (a cura di), Causes of evolution. A paleontological perspective, Chicago 1990. RUELLE D., Hasard et chaos, Parigi 1991 (trad. it., Caso e caos, Torino 1992). RusE M., The darwinian paradigm, essays on its history, philosophy and religious implications, Londra 1989. SALTHE S.N., Evolving hierarchical systems, New York 1985. SoBER E., The nature of selection. Evolutionary theory in philosophical focus, Cambridge (Mass.) 1984.
531
www.scribd.com/Baruhk
Bibliografia SoBER E. (a cura di), Conceptual issues in evolutionary biology. An anthology, Cambridge (Mass.) 1984. STANLEY S.M., Macroevolution: pattern and process, San Francisco 1979. STANLEY S.M., The new evolutionary timetable, New York 1981 (trad. it., L'evoluzione dell'evoluzione, Milano 1982). STANLEY S.M., Extinction, New York 1987. STENGERS 1., Quelle histoire pour !es sciences?, in Histoire des science et psychogenése, « Cahiers de la Fondation Archives Jean Piaget », 4, Ginevra 1983. STENGERS 1., Perché non può esserci un paradigma della complessità, in BacCHI G. e CERUTI M. 1985. STENGERS 1., Les généalogies de l'auto-organisation, in « Cahiers du CREA», 8, Parigi 1985. STERN ].T., The meaning of «adaptation» and its relation to the phenomenon of natura! selection, in « Evolutionary Biology », 4, 1970. STEWART 1., Does God play dice? The mathematics of chaos, Oxford 1989. TATTERSALL 1., The fossi! trai!. How we know what we think we know about human evolution, Oxford 1995. TAx S. (a cura di), The evolution of !ife, Chicago 1960. TEMIN H.M. e ENGELS W., Movable genetic elements and evolution, in PoLLARD J.W 1984, pp. 173-201. THOMPSON D'ARCY W., On growth and form, Cambridge 1917. VARELA F.J., Principles of biologica! ilutonomy, New York 1979. VARELA F.J., THOMPSON E. e RoscH E., The embodied mind. Cognitive science and human experience, Cambridge (Mass.) 1991 (trad. it., La via di mezzo della conoscenza. Le scienze cognitive alla prova dell'esperienza, Milano 1992). VARELA F.J. e DuPUY ].P. (a cura di), Understanding origins, Dordrecht 1992. VENDRYÈS P., L'autonomie du vivant, Parigi 1982. VRBA E. S., Evolution, species and fossils: how does !ife evolve?, in «S. Afr. ]. Sci.», 76, 1980, pp. 61-84. VRBA E.S., Macroevolutionary trends: new perspectives on the roles of adaptation and incidental effect, in « Science », 221, 1983, pp. 387-389. VRBA E.S., Patterns in the fossi! record and evolutionary processes, in Ho M.W. e SAUNDERS P.T. 1984, pp. 115-142. VRBA E.S. e ELDREDGE N., Individuals, hierarchies and processes: towards a more complete evolutionary theory, in « Paleobiology », 10, 1984, pp. 146-171. VRBA E.S. e GouLD S.]., The hierarchical expansion of sorting and selection: sorting and selection cannot be equated, in « Paleobiology », 12, 2, 1986; pp. 217-228. WADDINGTON C.H., The strategy of the genes, Londra 1957. WADDINGTON C. H., Evolutionary systems - animai and human, in «N atu re», 183, 1959, pp. 1634-1638. WADDINGTON C.H., The theory of evolution today, in KoESTLER A. e SMYTHIES J.R. 1969, pp. 357-395· WADDINGTON C.H., Towards a theoretical biology, vol. III, Edimburgo 1970. WADDINGTON C.H., The evolution of an evolutionist, Edimburgo 1975 (trad. it., Evoluzione di un evoluzionista, Roma 1979).
532
www.scribd.com/Baruhk
Bibliografia
WADDINGTON C.H., Strumenti per pemare. Un approccio globale ai sistemi complessi, Milano 1977· WEBSTER G.C. e GooDWIN B.C., The origin of species: a structuralist approach, in «}ournal of Social and Biologica! Structures », 5, 1982, pp. 15-47. WEBSTER G.C., The relations of natura/ forms, 1983 in Ho M. W. e SAUNDERS P.T. 1984, pp. 193-217. WEBSTER G.C. e GooDWIN B.C., Il problema della forma in biologia, Roma 1988. WEiss P., L'archipel scientifique, Parigi 1974. WHITE M.].D., Modes of Speciation, San Francisco 1978. WILFORD J.N., The riddle of the dinosaur, New York 1985 (trad. it., L'enigma dei dinosauri, Milano 1987). WILLIAMS G.C., Adaptation and natura/ selection, Princeton (N.].) 1966. WILLS C., The wisdom of the genes: new pathways in evolution, New York 1989. WILLS C., Exom, introm, and talking genes: the science behind the human genome project, New York 1991. WILSON A.C. e CAUN R.L., The recent African genesis of humam, in « Scientific American », 266, 4, 1992, pp. 68-73ZucKERKANDEL E., On the molecular evolutionary dock, in «}ournal of Molecular Evolution », 26, 1987, pp. 34-46.
CAPITOLO SETTIMO
Il sistema immunitario ANDERSON J.A. e RosENFELD E. (a cura di), Neurocomputing, Cambridge (Mass.) 1988. ARAI K., LEE F., MIYAJIMA A., MIYATAKE S., ARAI N. e YoKOTA T., Cytokines: coordinators of immune and inflammatory respomes, in « Ann. Rev. Biochem. », 59, 1990, pp. 783-836. ARRHENIUS S., Immunochemistry, New York 1907. AUFFRAY C. e STROMINGER J.L., Molecular genetics of the human histocompatibility complex, in « Adv. Hum. Genet. », 15, 1986, pp. 197-230. BACH F. e HIRSCHHORN K., Lymphocyte interaction: a potential histocompatibility test in vitro, in « Science », 143, 1964, pp. 813-814. BACH F.H. e AMos D.B., Hu-I: major histocompatibility focus in man, in « Science », 156, 1967, pp. 1506-1509. BACH F. H., Ruggero Ceppe/lini (I9I7-I988), in « lmmunol. Today », 9, 11, 1988, pp. 335-337· BAIN B., VAz M.R. e LOWENSTEIN L., The development of large immature mononuclear cells in mixed lymphocyte culture, in « Blood », 23, 1964, pp. 108-116. BALKWILL F.R. e BuRKE F., The cytokine network, in « lmmunol. Today », 10, 1989, pp. 299BEAUCHAMP G.K., BoYSE E.A. e YAMAZAKY K., Il riconoscimento o/fattivo dell'individualità genetica, in CELADA F. (a cura di), Le difese immunitarie, Milano 1986, pp. 91-97. BENACERRAF B., Reminescences, in « lmmunol. Rev. », 84, 1985, pp. 7-27. BENACERRAF B., When ali is said and done... , in « Ann. Rev. Immunol. >>, 9, 1991, pp. 1-26.
533
www.scribd.com/Baruhk
Bibliografia BERNARD ]., BEssrs M. e DEBRU C. (a cura di), Soi et non soi, Parigi I990. BrLLINGHAM RE., BRENT L. e MEDAWAR P.B., Actively acquired tolerance of foreign cells, in «Nature», I72, I953, pp. 603-606. BoDMER W. F., Evolutionary significance of the HLA system, in «Nature», 237, I972, pp. I39I44· BoDMER W.F. e BonMER J.C., Evolution and fonction of the HLA system, in «Br. Med. Bull. », 34, I978, pp. 309-324· BRETSCHER P. e CoHN M., A theory of selfnonself discrimination, in « Science >>, I69, I970, pp. !042-!049· BOcHNER H., iiber Bakteriengifte und Gegfengifte, in « Miinch. med. Wochenschr. >>, I6, I883, pp. 449-452. BuRGIO G.R., The «biologica! ego». From Garrod's «chemical individuality» to Burnet's «se/f>, in «Acta Biotheoretica >>, 38, I990, pp. I43-I59· BuRNET F.M. e FENNER F., The production of antibodies, Melbourne I949· BuRNET F.M., A modification of jerne's theory of antibody formation using the concept of clona! selection, in « Aust. J. Sci.>>, 20, I957, pp. 67-71. BURNET F.M., The clona! selection theory of acquired immunity, Melbourne I959· BURNET F.M., The darwinian approach to immunity, in STERZL ]. (a cura di), Molecular and cellular basis of antibody formation, New York-Londra I965, pp. I7-20. BuRNET F.M., lmmunology as a scholarly discipline, in « Perspectives in Biology and Medicine>>, I6, I972, pp. I-9. BuRNET F.M., Clona! selection and after, in BELL G.I., PERELSON A.S. e PrMBLEY G.H. jr. (a cura di), Theoretical immunology, New York I978, pp. 63-85. CAMBROSIO A. e KEATING P., Between fact and technique: the beginnings of hybridomas technology, in «J. Hist. Biol. >>, 25, I992, pp. I75-230. CAMBROSIO A., KEATING P. e TAUBER A., lmmunology as a historical object, in «J. Hist. Biol. >>, 27, I994, pp. 375-378. CEPPELLINI R., Old and new facts and speculations about transplantation antigens of man, in « Progr. lmmunol. >>, I, I97I, pp. 973-994. CLAMAN H.N., CHAPERON E.A. e TRIPLETT R.F., Thymus-marrow celi combinations. Synergism in antibody production, in « Proc. Soc. Ex p. Biol. Med. >>, I22, I966, pp. II67-II7I. CoHN M., The concept of fonctional idiotype network for immune regulation mocks alt and comfort none, in « Ann. lnst. Pasteur/Immunol. >>, I37C, I986, pp. 64-76. CoHN M., The wisdom of hindsight, in « Ann. Rev. lmmunol. >>, I2, I994, pp. I-62. CoRBELLINI G. e RIBATTI D., Cervello e immunità, in «Sapere>>, 9I9, I989, pp. 39-44. CORBELLINI G. (a cura di), L'evoluzione del pensiero immunologico, Torino I990. CoRBELLINI G., L'immunologia e la sua storia, in CoRBELLINI G. I990, pp. 9-57. CoRBELLINI G., Sulla storia dell'immunologia, in « Hist. Phil. Life Sci.>>, I3, I99I, pp. I3ICoRBELLINI I99I, pp. I9-24. CoRBELLINI CoRBELLINI chine>>, xr, 3/4,
G., Gera/d Edelman. Il Darwin della coscienza, in «La Rivista dei Libri>>, 7, G., La scoperta della storia dell'immunologia, in « Physis >>, XXX, I993, pp. 5I7-526. G., L'immunologia e il problema della conoscenza, in «Nuova Civiltà delle MacI993, pp. I39-I48.
534
www.scribd.com/Baruhk
Bibliografia CoRBELLINI G. (a cura di), Infiammazione. Dalle parti al sistema, Udine I995· CORBELLINI G., L'evoluzione della medicina darwiniana, in «Nuova Civiltà delle Macchine», in corso di pubblicazione. CORBELLINI G., The evolution of immunologica/ selectionism, in corso di pubblicazione. CouTINHO A., FoRNI L., HoLMBERG D., lvARS F. e VAz N., From an antigen-centered clonai
perspective on immune respome to an organism-centered network perspective of autonomous activity in a self-referential immune system, in « lmmunol. Rev. », 79, 1984, pp. I5I-I68. CouTINHO A., Beyond clonai selection and network, in « lmmunol. Rev. », no, 1989, pp. 63CRADDOCK C. G., Defemes of the body: the initiators of defense, the ready reserves and the scavengers, in WrNTROBE M.M. (a cura di), Blood, pure and eloquent, New York 1980, pp. 417-451. CuLLEN S.E., FREED J.H. e NATHANSON S.G., Structural and serological properties of murine la alloantigem, in « Transplant. Rev. », 30, 1976, pp. 236-270. CuNNINGHAM B.A., HEMPERLEY J.J., MVRRAY B.A., PREDIGER E.A., BRACKENBURY R. e EDELMAN G.M., Neural celi adhesion molecule: structure, Ig-like domaim, celi surface modulation and alternative RNA splicing, in « Science », 236, 1987, pp. 799-806. CuRTONI E.S., MATTIVz P.L. e Tosr R.M. (a cura di), Histocompatibility testing 1967, Copenaghen-Munksgaard 1967. DAUSSET J. e CoLOMBANI J. (a cura di), Histocompatibility testing 1972, Copenaghen-Munksgaard 1973. DAvrs M.M. e BJORKMAN P.J., T-celi antigen receptor genes and T-celi recognition, in «Nature», 334. 1988, pp. 395·402. DoRF M.E., STIMPFLING J.H. e BENACERRAF B., Requirement for two H-2 complex Ir genes for the immune respome to the GPLPhe terpolymer, in «J. Exp. Med. », 141, 1975, pp. 1459-1463. DREYER W.J. e BENNET J.C., The molecular basis of antibody formation: a paradox, in « Proc. Nat. Acad. Sci. USA», 54, 1965, pp. 864-869. Dusos R., The adaptive production of enzyme in bacteria, in « Bact. Rev. », 4, 1940, pp. 1-13. DWYER J.M., Manipulating the immune system with immune globulin, in « New Engl. J. Med. », 326, 1992, pp. 107-n6. EDELMAN G.M. e GALL W.E., The antibody problem, in « Ann. Rev. Biochem. », 38, 1969, pp. 415-466. EDELMAN G.M., Antibody structure and molecular immunology, in « Science », r8o, 1973, pp. 830-840. EoELMAN G.M., The shock of molecular recognition, in SMITH E.E. e RrnBONS D.W. (a cura di), Molecular Approaches to Immunology, Miami Winter Symposia, vol. IX, New York 1975, pp. I-2I. EDELMAN G.M., Surface modulation in celi recognition and celi growth, in « Science », 192, 1976, pp. 218-226. EDELMAN G.M., Understanding selective molecular recognition, in «Cold Spring Harbor Symposia on Quantitative Biology », 41, 1977, 891-902. EDELMAN G.M., CAMs and Igs: cell adhesion and the evolutionary origim of immunity, in « lmmunol. Rev. », roo, 1987, pp. n-45. EDELMAN G.M., Topobiologia, Torino 1991. EDELMAN G.M., A golden age for adhesion, in «Celi Adhes. Commun. », I, 1993, pp. 1-7.
535
www.scribd.com/Baruhk
Bibliografia EDELMAN G.M., The evolution of somatic selection: the antibody tale, in « Genetics », 138, 1994, pp. 975·98!. EHRLICH P., Die Wertbemessung des Diphtherieheilserums und deren theoretische Grundlagen, in « Klin. Jahrb. », 6, 1987, pp. 299-326. FELTON L.D. e BAILEY G.H., Biologie significance of the soluble specific substances of pneumococci, in «J. Infect. Dis. », 38, 1926, pp. 131-144. FoRD WL., The lymphocyte - its tramformation from a frustrating enigma to a mode/ of cellular fonction, in WINTROBE M.M. (a cura di), Blood, pure and eloquent, New York 1980, pp. 457·505. GooD R.A., Runestones in immunology: imcriptiom to journeys of discovery and analysis, in «}. Immunol. », II?, 1976, pp. 1413-1428. GooDMAN H.C., Immunodiplomacy: the story of the world health organization's immunology research programme, I96I-I975, in MAZUMDAR P.M.H. (a cura di), Immunology I930-I98o, Toronto 1989, pp. 253-272. HAUROWITZ F., Biologica/ problems and immunochemistry, in «Quart. Rev. Biol. », 24, 1949, pp. 93-123. HEIDELBERGER M., Lectures in immunochemistry, New York 1956. HILL C.S. e TREISMAN R., Transcriptional regulation by extracellular signals: mechanisms and specificity, in « Cell », 8o, 1995, pp. I99·2II. HILSCHMANN N. e CRAIG L.C., Amino acid sequence studies with Bence-fones proteins, in «Proc. Nat. Acad. Sci. USA», 53, 1965, pp. 1403-1406. }ANEWAY C.A. jr., The immune system evolved to discriminate infectious nonself from noninfectious self, in « Immunol. Today », 13, 1992, pp. n-r6. }ANEWAY C.A. jr. e BOTTOMLY K., Signals and signs for lymphocytes respomes, in « Cell », 76, 1994, pp. 275-285. }EFFERIS R., What is an idiotype?, in « Immunol. Today », 14, 3, 1993, pp. II9-I2I. ]ERNE N.K., The natura/ selection theory of antibody formation, in «Proc. Nat. Acad. Sci. USA», 41, 1955, pp. 849-857. ]ERNE N.K., Immunologica/ speculations, in « Ann. Rev. Microbiol. », 14, 1960, pp. 341-358. ]ERNE N.K., The natura/ selection theory of antibody formation: ten years later, in CAIRNS J., STENT G. e WATSON J. (a cura di), Phage and the origin of molecular biology, in « Cold Spring Harbor Lab. Quant. Biol. », 1966, pp. 301-312. }ERNE N.K., The somatic generation of immunologica/ recognition, in « Eur. J. Immunol. », r, 1971, pp. 1-9. ]ERNE N.K., Toward a network theory of the immune system, in « Ann. Inst. Pasteur/Immunol. », 125 C, 1974, pp. 373-389. }ERNE N.K., Idiotypic network and other preconceveid ideas, in « Immunol. Rev. », 79, 1984, pp. 5·24· ]ERNE N.K., The generative grammar of the immune system, in « Science », 229, 1985, pp. 1057·1059· Juuus M., MAROUN C.R. e HAUGHN L., Distinct roles for CD4 and CD8 as co-receptors in antigen receptor signalling, in « Immunol. Today », 14, 1993, pp. 177·183. KATZ D.H., HAMAOKA T. e BENACERRAF B., Celi interactiom between histoincompatible T and B lymphocytes. Il Failure of physiological cooperative interactions between T and B lymphocytes from
www.scribd.com/Baruhk
Bibliografia
allogeneic donor strains in humoral response to hapten-protein conjugates, m «J. Exp. Med. », 137, 1973, pp. 1405-1418. KEATING P. e 0USMAN A., The problem of natura! antibodies, I894-I905, in «J. Hist. Biol. », 24, 1991, pp. 245-263. KEATING P. e CAMBROSIO A., <
stitution of human T-cell subsets, in «J. Hist. Biol. », 27, 1994, pp. 449-479. KINDT T.J. e CAPRA J.D., The antibody enigma, New York 1984KrSHIMOTO T., TAGA T. e AKIRA S., Cytokine signa! transduction, in «Celi», 76, 1994, pp. 253-262. KrssMEYER-NIELSEN F. (a cura di), Histocompatibility testing I9J5, Copenaghen-Munksgaard 1976. KLEIN J., Immunology. The science of se/fnonself discrimination, New York 1982. KOHLER G. e MrLSTEIN C., Continuous eu/tures of fused cells secreting antibody of predefinied specificity, in «Nature», 256, 1975, pp. 495-497· KuBY J., Immunology, New York 1992. LANDSTEINER K., The specificity of serological reactions, Springfield 1936 (n ed.; Mass. 1947). LAPPÉ M., Evolutionary medicine. Rethinking the origins of disease, San Francisco 1994. LEDERBERG J., Genes and antibody, in « Science », 129, 1959, pp. 1649-1653. LEDERBERG J., The ontogeny of the clona! selection theory of antibody formation. Reflections on Darwin and Ehrlich, in « Buli. N. Y. Acad. Sci.», 546, 1988, pp. 279-293. LocKE S., ADER R., BESEDOVSKY H., HALL N., SoLOMON G. e STROM T. (a cura di), Foundation of psychoneuroimmunology, New York 1985. LURIA S.E. e DELBRUCK M., Mutations of bacteria from virus sensitivity to virus resistence, in « Genetics », 28, 1943, pp. 491-5n. MARRACK P. e KAPPLER J., The T-cell receptor, in « Science », 238, 1987, pp. 1073-1079· MARRAcK P. e KAPPLER J., The T-cell reperto ire for antigen and MHC, in « Immunol. Today », 9, 1988, pp. 308-315. MARRACK P. e KAPPLER J., Subversion of the immune system by pathogen, in «Celi», 76, 1994, pp. 323-332. MAYR E., The growth of biologica! thought. Diversity evolution and inheritance, Cambridge (Mass.) 1982 (trad. it., Storia del pensiero biologico, Torino 1990). MAZUMDAR P.M.H., The antigen-antibody reaction and the physics and chemistry of !ife, in « Buli. Hist. Med. », 48, 1974, pp. 1-2. MAzuMDAR P.M.H., Species and specificities, Cambridge (Mass.) 1995. METCHNIKOFF E., L'immunité dans !es maladies infectieuses, Parigi 1901. MrLLER J.F.A.P., Immunologica! function of the thymus, in « Lancet », 2, 1961, pp. 748-749. MILLER J.F.A.P., Ejfect of neonata! thymectomy on the immunologica! responsiveness of the mouse, in « Proc. Royal Soc. London », 156B, 1962, pp. 410-428. MILLER J.F.A.P. e MrTCHELL G.F., The thymus and the precursors of antigen-reactive cells, in «Nature», 216, 1967, pp. 659-663. MILLER J.F.A.P. e MrTCHELL G.F., Celi to cell interaction in the immune response, in «J. Exp. Med. », 128, 1968, pp. 801-837. MITCHISON N.A., RAJEWSKY K. e TAYLOR R.B., Cooperation of antigenic determinants and of cells in the induction of antibodies, in STERZL J. e RrHA I. (a cura di), Developmental aspects of
537
www.scribd.com/Baruhk
Bibliografia
antibody formation and structure. Proceedings of a symposium held in Prague and Slapy on fune 1-7, 1969, vol. n, Praga-New York 1970, pp. 547-561.
MoLLER G. (a cura di), T-celi repertoire, in « Immunol. Rev. », 101, 1988, pp. 1-125. M6LLER E., B6HME J., VALUGERDI M.A., RIDDERSTAD A. e 0LERUP 0., Speculations on mechanisms of HLA associations with autoimmune diseases and the specificity of «autoreactive» T lymphocytes, in « Immunol. Rev. », n8, 1990, pp. 1-19. MoRANGE M., Historie de la biologie moléculaire, Parigi 1994. MosMAN T.R. e CoFFMAN R.L., Two types of mouse helper T-cell clone-implications for immune regulation, in « Immunol. Today », 8, 1987, pp. 223-227. MouLIN A.M., Le dernier langage de la médicine. L'immunologie de Pasteur au Sida, Parigi 1991.
NossAL G.J.V., Immunologie tolerance: collaboration between antigen and lymphokines, in « Science », 245, 1989, pp. 147-153· NossAL G.J.V., Negative selection of lymphocytes, in « Cell », 76, 1994, pp. 229-239. NossAL G.J.V., One cell - one antibody: impact on immunologica/ theory and practice, in SZENTIVANY A. e FRIEDMAN H. (a cura di), The immunologie revolution: facts and witness, Boca Raton 1994, pp. 81-89. 0LSSON L, The cytokine network, in «J. Internai Med. », 233, 1993, pp. 103-105. 0PPENHEIM J.J. e GERY L, From lymphodrek to interleukin I (IL-I), in «lmmunol. Today», 14, 1993. pp. 232·234. PAN Y., YuHASZ s.e. e AMzEL L.M., Anti-idiotypic antibodies: biologica/ function and structural studies, in «FASEB J. », 9, 1995, pp. 43-49. PAUL W e SEDER R.A., Lymphocyte response and cytokines, in « Cell », 76, 1994, pp. 241-251. PAULING L., A theory of the structure and process of formation of antibodies, in «J. Chem. Soc.», 62, 1940, pp. 2643-2657. PETERSON P.A., CuNNINGHAM B.A., BERGGARD L e EDELMAN G.M., Beta2-microglobulin-a free Ig domain, in « Proc. Nat. Acad. Sci. USA», 69, 1972, pp. 1697·1701. PoRTIN P., The concept of the gene: short history and present status, in «Quart. Rev. Biol. », 68, 1993. pp. 173·223. RAFF M. C., Two distinct populations of peripherallymphocytes in mice distinguishable by immunofluorescence, in « Immunology », 19, 1970, pp. 637-650. RAFF M. C., STENBERG M. e TAYLOR R.B., Immunoglobulin determinants on the surface of mouse lymphoid cells, in «Nature», 225, 1970, pp. 553·554· RAFF M. C., FELDMAN M. e DE PETRis S., Monospecificity of bone-marrow-derived lymphocytes, in «J. Exp. Med. », 137, 1973, pp. 1024·1030. ROBEY E. e FowLI<ES B.J., Selective events in T-cell development, in « Ann. Rev. Immunol. », 12, 1994. pp. 675•705. Rorrr LM., GRAVES M.F., ToRRIG!ANI G., BROSTOFF J. e PLAYFAm J.H.L., The cellular basis of immunologica/ responses, in « Lancet », 2, 1969, pp. 367-371. RoMAGNANI S., Human Th1 and Th2 subsets: doubt no more, in « Immunology Today », 12, 1991, pp. 256·257· RosENTHAL A. S. e SHEVACH E.M., Function of macrophages in antigen recognition by guinea pig T lymphocytes. l Requirement for histocompatible macrophages and lymphocytes, in «J. Exp. Med. », 138, 1973, pp. II94-1212.
www.scribd.com/Baruhk
Bibliografia
SrLVERSTEIN A.M., A history of immunology, New York 1989. SrLVERSTEIN A.M., The dynamics of conceptual change in Twentieth-Century immunology, in «Celi. Immunol. », 132, 1991, pp. 515-531. SILVERSTEIN A.M. e SbDERQVIST T., The structure and dynamics of immunology, I95I-I9J2: a prosopographical study of international meetings, in «Celi. lmmunol. », 158, 1994, pp. 1-28. SrsKIND G.W. e BENACERRAF B., Celi selection by antigen in the immune response, in « Adv. lmmunol. », 10, 1969, pp. 1-50. SM!TH K.A., Interleukin-2: inception, impact, and implications, in « Science », 240, 1988, pp. n69-II76. SNELL G.D., Studies in histocompatibility, in « Science », 213, 1981, pp. 172-178. SbDERQVIST T., Darwinian overtones: Niels K Jerne and the origin of the selection theory of
antibody formation, in «J. Hist. Biol. », 27, 1994, pp. 481-529. STEWART J., Immunoglobulins did no t arise in evolution to fight infection, in « lmmunol. Today », 13, 1992, pp. 396-400. STROMINGER J.L., Developmental biology of T-celi receptor, in « Science », 244, 1989, pp. 943950. SZENTIVANY A. e FRIEDMAN H. (a cura di), The immunologie revolution: focts and witness, Boca Raton 1994. TALMAGE D.W., Aliergy and immunology, in « Ann. Rev. Med. », 8, 1957, pp. 239-256. TALMAGE D.W., Immunological specificity, in « Science », 129, 1959, pp. 1643-1648. TALMAGE D.W. e CANN J., The chemistry of immunity in health and disease, Springfield 1961. TAUBER A. e CHERNYAK L., Metchniko.lf and the origins of immunology. From metaphor to theory, Oxford 1991. TAUBER A. (a cura di), Organism and the origins of self, in «Boston Studies in the Philosophy of Science », vol. 129, Dordrecht 1991. TAUBER A., The immune self, New York 1994. TERESKY P.l. (a cura di), History of HLA: IO recoliections, Los Angeles 1990. TrsELIUS A. e KABAT E.A., An electrophoretic study of immune sera and purified antibody preparations, in «J. Exp. Med. », 69, 1939, pp. II9-131. ToNEGAWA S., Somatic generation of antibody diversity, in «Nature», 302, 1983, pp. 5009-5015. ToNEGAWA S., Somatic generation of immune diversity, in « Bioch. Clin. », 12, 1988, pp. 509523. TYLER A., An auto-antibody concept of celi structure, growth and di.lferentiation, in « Growth », 10 (Suppl.), 1947, pp. 7-19. URBAIN J., Idiotypic network: a noisy background or a breakthrough in immunologica/ thinking, in « Ann. lnst. Pasteur/lmmunol. », 137C, 1986, pp. 57-64. VARELA F. e CouTINHO A., Second generation immune network, in «lmmunol. Today», 12, 1991, pp. 159-166. VAz N. e VARELA F., Se/f and non sense: an organism-centered approach to immunology, in « Med. Hypoth. », 4, 1978, pp. 231-267. VoN BOEHMER H., The developmental biology of T lymphocytes, in « Ann. Rev. lmmunol. », 6, 1988, pp. 309-326. VoN BoEHMER H., Positive selection of lympocytes, in «Celi», 76, 1994, pp. 219-228. WARNER L.N., SzENBERG A. e BURNET F.M., The immunologica/ role of di.lferent lymphoid
539
www.scribd.com/Baruhk
Bibliografia orgam in the chicken. l Dissociation of immmunological respomiveness, in « Aust. J. Exp. Biol. Med. 40, 1962, pp. 373-388. WEISSMAN I. L., Developmental switches in the immune system, in «Celi», 76, 1994, pp. 207-
Sci. », 218.
WILLIAMS A.F. e GAGNON J., Neuronal celi Thy-1 glycoprotein: homology with Ig, in « Science », 216, 1982, pp. 696-703.
WILLIAMS A.F. e BARCLAY A.N., The immunoglobulin superfamily - domaim for celi surface recognition, in « Ann. Rev. lmmunol. », 6, 1988, pp. 381-405. ZINKERNAGEL R.M. e DOHERTY P. C., Restriction of in vitro T-cell-mediated cytotoxicity in lymphocytic choriomeningitis within a syngeneic or semiallogeneic system, in «Nature», 248, 1974, pp. 701-702.
CAPITOLO OTTAVO La fisica delle interazioni fondamentali, della materia e del cosmo AnAIR R.K., The great design: particles, fields and creation, New York 1987. AsHCROFf N.W. e MERMIN N.D., Solid state physics, New York 1976. BELL J.S., Speakable and umpeakable in quantum mechanics, Cambridge 1987. BERNSTEIN]., The tenth dimemion: an informai history of high energy physics, New York 1989. BJORKEN J.D. e DRELL S.D., Relativistic quantum mechanics, New York 1964. BJORKEN J.D. e DRELL S.D., Relativistic quantum fields, New York 1965. BROWN L.M. e HoDDESON L. (a cura di), The birth of particle physics, Cambridge 1983. CoRNELL J. (a cura di), Bubbles, voids, and bumps in time: the new cosmology, Cambridge 1989. DAVIES P.CH.W., Space and time in the modern universe, Cambridge 1977. DAVIES P.CH.W., The accidental universe, Cambridge 1982. DE GENNES P.G., Simple views on condensed matter, Singapore 1992. DIRAc P.A.M., The principles of quantum mechanics, Oxford 1947, III ed. (trad. it., I principi della meccanica quantistica, Torino 1959). FADDEEV L.D. e SLAVNOV A.A., Gauge fields: introduction to quantum theory, Londra 1991 (n ed.). GEORGI H., ~ak interactiom and modern particle theory, Menlo Park (Cal.) 1984. GoiTFRIED K. e WEISSKOPF V.F., Concepts of particle physics, Oxford 1986. GuPTA L.C. e MuLTANI M.S. (a cura di), Selected topics in magnetism, Singapore 1993. HAAG R., Local quantum physics: fields, particles, algebras, Berlino 1992. HAWKING S.W., Dal Big Bang ai buchi neri, Milano 1988. HAWKING S.W., Hawking on the big bang and black holes, Singapore 1993. HEALEY R., The philosophy of quantum mechanics: an interactive interpretation, Cambridge 1989.
HoLLAND P.R., The quantum theory of motion: an account of the de Broglie-Bohm causai interpretation of quantum mechanics, Cambridge 1993. HuGHES R.I. G., The structure and interpretation of quantum mechanics, Cambridge (Mass.) 1989. ]AMMER M., The conceptual development of quantum mechanics, Los Angeles 1989. 540
www.scribd.com/Baruhk
Bibliografia
KAEMPFFER F.A., Concepts in quantum mechanics, New York 1965. KIESLING C., Tests of the standard theory of electroweak interactiom, Berlino 1988. KnTEL CH., lntroduction to so/id state physics, New York 1986, VI ed. (trad. it., Introduzione alla fisica dello stato solido, Torino 1971). KOLB E.W. e TuRNER M.S., The early universe, Redwood City (Cal.) 1990. LE BELLAC M., Quantum and statistica! fie/d theory, Oxford 1991. LEE T.D., Particle physics and introduction to fie/d theory, Harwood 1981. LEE T.D., The evolution of weak interactiom, Ginevra 1986. LINDE A.D., Particle physics and injlationary cosmology, Harwood 1990. McCusKER B., The quest for quarks, Cambridge 1983. NACHTMANN 0., Elementary particle physics: concepts and phenomena, Berlino 1990. NAMBU Y., Quarks: frontiers in elementary particle physics, Filaddfia 1985. 0KUN L.B., Particle physics: the quest for the substance of substance, Harwood 1985. PARKER B.R., Search for a supertheory: from atoms to superstrings, New York 1987. PATTERSON J.D., Introduction to the theory of solid state physics, Reading (Mass.) 1971. PENROSE R., The emperor's new mind: concerning computers, minds and the laws ofphysics, New York 1989. PERKINS D.H., Introduction to high energy physics, Menlo Park (Cal.) 1987 (m ed.). QuiGG C., Gauge theories of the strong, weak, and electromagnetic interactiom, Reading (Mass.) 1983.
RENTON P., Electroweak interactiom: an introduction to the physics of quarks and leptom, Cambridge 1990. RloRDAN M., The hunting of the quark: a true story of modern physics, New York 1987. Ross G.G., Grand unified theories, Menlo Park (Cal.) 1984. RuoDEN M.N. e WILSON J., A simplified approach to solid state physics, Londra 1971. SANDIN T.R., Essentials of modern physics, Reading (Mass.) 1989. ScHEIBE E., The logica! analysis of quantum mechanics, Oxford 1973. SciAMA D.W., Modern cosmology and the dark matter problem, Cambridge 1993. SEGRÈ E., Nuclei and particles: an introduction to nuclear and subnuclear physics, Reading (Mass.) 1977, 11 ed. (trad. it., Nuclei e particelle, Bologna 1982). SILK J., The big bang, New York 1989 (n ed.). STAPP H.P., Minrl, matter, and quantum mechanics, Berlino 1993. STINGER V.J., Physics and phychics: the search for a world beyond the semes, Buffalo (N.Y.) 1990.
VoN NEUMANN J., Mathematical foundatiom of quantum mechanics, Princeton 1955. WEINBERG S., The discovery of subatomic particles, New York 1983 (trad. it., La scoperta delle particelle subatomiche, Bologna 1984). WEINBERG S., The quantum theory of fields l, 2 voli., Cambridge 1995. YNDURAIN F.J., Quantum chromodynamics: an introduction to the theory of quarks and gluom, New York 1983 (I ed.). ZEE A. (a cura di), Unity of forces in the universe, 2 voli., Singapore 1982. ZINN-}USTIN J., Quantum fie/d theory and critica! phenomena, Oxford 1993 (n ed.).
541
www.scribd.com/Baruhk
CAPITOLO NONO
I progressi dell'astrofisica AuoouzE J. e ISRAL G. (a cura di), The Cambridge Atlas of Astronomy, Cambridge 1985. BARROW J.D. e TIPLER J., The anthropic cosmologica! principle, Oxford 1988. BARUCCI M.A. e FuLCHIGNONI M. (a cura di), Comete e meteoriti, Milano 1985. BEATTY J.K. e CHAIKIN A. (a cura di), The new solar system, Cambridge 1990. BERGIA S., Dal cosmo immutabile all'universo in evoluzione, Torino 1995. BERTOLA F., SuLENTIC J.W. e MADORE B.F., New ideas in astronomy, Cambridge 1988. BERTOLA F., CALVANI M. e Curu U. (a cura di), Venice conferences on cosmology and philosophy, Firenze 1992. BERTOLA F. e CuRI U. (a cura di), The anthropic principle, Cambridge 1993. BERTOLA F., CALVANI M. e CuRI U. (a cura di), Origini: l'universo, la vita, l'intelligenza, Padova 1994. BERTOTTI B., BALBINOT R., BERGIA S. e MESSINA A. (a cura di), Modern cosmology in retrospect, Cambridge 1990. BINNEY J. e TREMAINE S., Galactic dynamics, Princeton (N.J.) 1987. CROWE M.J., The extraterrestrial lift debate IJSO-I900, Cambridge 1986. CoMBES F., BorssÉ P., MAzuRE A. e BLANCHARD A., Galaxies and cosmology, Heiddberg 1995. DAVIES P. (a cura di), La nuova fisica, Torino 1992. Fmw G.B. e CHAISSON E.J., The invisible universe, Boston 1985. FuLCHIGNONI M. (a cura di), Il sistema solare nelle esplorazioni spaziali, Milano 1976. FuLCHIGNONI M. e VISCONTI G. (a cura di), Ambienti planetari, Milano 1987. GRATTON L., Introduzione all'astrofisica, 2 voli., Bologna 1978. GRATTON L., Cosmologia, Bologna 1987. HAcK M. (a cura di), La nostra galassia, Milano 1984. HARwrr M., Astrophysical concepts, New York 1988. HENBEST N. e MARTEN M., The new astronomy, Cambridge 1983. HoPKINS J., Glossary of astronomy and astrophysics, Chicago 1976. KRAus J.D., Radio astronomy, Powell (Ohio) 1986. LucCHIN F., Introduzione alla cosmologia, Bologna 1990. LINDE A., Un universo inflazionario che si autoriproduce, in «Le Scienze», 317, 1995. MARAN S.P. (a cura di), The astronomy and astrophysics Encyclopedia, Cambridge 1992. MELCHIORRI B. e F. (a cura di), Cosmologia, Milano 1987. MELCHIORRI B. e F. (a cura di), Quasar e buchi neri, Milano 1993. MEYERS R.A. (a cura di), Encyclopedia of astronomy and astrophysics, San Diego (Cal.) 1989. MICHALAS D. e BINNEY J., Galactic astronomy: structure and kynematics, New York 1981. MuNITZ M.K. (a cura di), Theories of the universe, New York 1965. PEEBLES P.J.E., Physical cosmology, Princeton (N.J.) 1971. PEEBLES P.J.E., The large-scale structure of the universe, Princeton (N.J.) 1980. RAMANA MuRTHY P.V. e WoLFENDALE A.W, Gamma-ray astronomy, Cambridge 1986. RrGUTTI M. (a cura di), Il Sole, Milano 1982. SHU F.H., The physical universe, Mill Valley (Cal.) 1982. 542
www.scribd.com/Baruhk
Bibliografia
SHu F.H., Radiation, Mill Valley (Cal.) 1991. SHu F.H., Gas dynamics, Mill Valley (Cal.) 1992. TAYLER R.J., Stars, their structure and evolution, Londra 1970. TAYLER RJ., Galaxies: structure and evolution, Londra 1970. TucKER W e GIACCONI R., The X-ray universe, Cambridge (Mass.) 1985.
CAPITOLO DECIMO Gli sviluppi della chimica nel XX secolo
AsiMOV L, Breve storia della chimica, Bologna 1981. BALLHAUSEN C.J., Quantum mechanics and chemical bonding in inorganic complexes, in «Journal of Chemical Education », 56, 1979, p. 215. BALLHAUSEN C.J., The spread of ideas, in «Journal of Chemical Education », 56, 1979, p. 294·
BALLHAUSEN C.J., Valence and inorganic meta! complexes, in «Journal of Chemical Education », 56, 1979, p. 357· BROCK W.H., BENFEY O.T. e STARK S., Hojfman's benzene tree and the Kekulé ftstivities, in «Journal of Chemical Education », 68, 1991, p. 887. BROCK WH., The Norton history of chemistry, New York 1993. BYKOV G.V., The origin of the theory of chemical structure, in «]ournal of Chemical Education », 36, 1959, p. 220. CHATI J., A tribute to Sir Ronald Nyholm, in «Journal of Chemical Education », 51, 1974, p. 146. FERNEuus WC., History of inorganic synthesis, in «Journal of Chemical Education », 63, 1986, p. 500. FREEMAN G.R., The naming of evolving theories, in «Journal of Chemical Education », 62, 1985, p. 57· GURAN J. e MAGAT M., History ofphysical chemistry in France, in «Annual Review of Physical Chemistry », 22, 1971, p. 1. HAMMETI L.P., Physical organic chemistry in retrospect, in «Journal of Chemical Education », 43. 1966, p. 464. HERZBERG G., Molecular spectroscopy: a personal history, in « Annual Review of Physical Chemistry », 36, 1985, p. 1. HrEBERT N.E., The experimental basis of Kekulé's valence theory, in «Journal of Chemical Education », 36, 1959, p. 320. HuosoN]., Storia e fondamenti della chimica, a cura di MICHELON G., Atti dd IV Convegno Nazionale, Venezia 1991. Rendiconti degli Atti dell'Accademia delle Scienze detta dei XL, Serie v, vol. xvr, 1992. HuosoN ]., The history of chemistry, Basingstokes 1992. HuRWic J., Reception of Kasimir Fajan's quanticule theory of the chemical bond, in «Journal of Chemical Education », 64, 1987, p. 122. IHDE A.J., The development of modem chemistry, New York 1964. 543
www.scribd.com/Baruhk
Bibliografia }ENSEN WB., Abegg, Lewis, Langmuir and the octet rule, in «]ournal of Chemical Education », 61, 1984, p. 191. JosT W, The first 45 years of physical chemistry in Germany, in « Annual Review of Physical Chemistry», 17, 1966, p. 1. JosT W., Storia della scienza, a cura di DAUMAS M., Bari 1969. KNIGHT D.M., Ideas in chemistry. A history of the science, 1992. KoHLER RE. jr., The origin of G.N. Lewis theory of the shared pair bond, in « Historical Studies of the Physical Sciences », 3, 1971, p. 342. KoHLER RE. jr., The Lewis Langmuir theory of valence and the chemical community I920-r928, in « Historical Studies of the Physical Sciences », 6, 1975, p. 431. LEICESTER H.L., Storia della chimica, Milano 1978. LEICESTER H. L., Chimica oggi, in «Le Scienze», Milano 1978. LIEHR A.D., Molecular orbital valence bond and ligand fie/d theory, in «Journal of Chemical Education », 39, 1962, p. 135. MAsoN S.F., Storia delle scienze della natura, Milano 1971. MIERZECKI R., The historical development of chemical concepts, Dordrecht 1985. MrERZECKI R., The history of organic chemistry in the United States, a cura di RussELL A.C., Royal Society of Chemistry, 1985. NYHOLM R., The renaissance of inorganic chemistry, Londra 1956. NYHOLM R., The renaissance of inorganic chemistry, in «Journal of Chemical Education », 34, 1957, p. 166. PARTINGTON ].R., A history of chemistry, 4 voli., Londra 1962-1970. PAULING L., Fifty year progress in structural chemistry and molecular biology, in « Daedalus », 99, 1970, p. 988. RuSSELL C.A., The history of valency, Leicester 1971. SALTZMAN M.D., JJ Thomson and the modern revival of dualism, in «Journal of Chemical Education », so, 1973, p. 44· SALTZMAN M.D., The Robimon-Ingold controversy, in «}ournal of Chemical Education», 57, 1980, p. 484. SALTZMAN M.D., Sir Robert Robimon. A centennial tribute, in « Chemistry in Britain », 22, 1986, p. 543· SEABORG G.T., Some recollections of early nuclear chemistry, in «Journal of Chemical Education », 45, 1968, p. 278. SERVOS ]., Physical chemistry from Ostwald to Pau/ing. The making of a science in America, Princeton (N.J.) 1990. SMEATON W.A., Moseley and the numbering of the elements, in « Chemistry in Britain », 1, 1965, p. 353· SMEATON WA., An interview with Lord Todd, in « Chemistry in Britain », 10, 1974, p. 211. SMEATON W.A., An interview with Sir George Porter, in « Chemistry in Britain », n, 1975, p. SNELDERS H.A.M., The reception ofJH. van't Hoff's theory of the asymmetric carbon atom, in «Journal of Chemical Education », 51, 1974, p. 2. Sowv'Ev ]., L'Evoluzione del Pensiero Chimico dal '6oo ai Nostri Giorni, Milano 1976. SzABADVARY F., The concept of pH, in «Journal of Chemical Education », 41, 1964, p. 105.
544
www.scribd.com/Baruhk
CAPITOLO UNDICESIMO
Scienze della vita: alle frontiere fta fisica e chimica ALBERTS B., BRAY D., LEWIS ]., RAFF M., RoBERTS K. e WATSON ].D., Molecular biology of
the ce/4 New York 1989. ANDERSON W.F. e DIACUMAKOS E. G., Ingegneria genetica in cellule di mammifero, in «Le Scienze», 157, settembre 1981. BAYLOR D.A., HooGKIN AL. e LAMB T.D., The electrical respome of turtle cones to flashes and steps of light, in «Journal of Physiology », 242, 1974, pp. 685-727. BAYLOR D.A. e FuoRTES M.G.F., Electrical respomes of single cones in the retina of the turtle, in «Journal of Physiology», 207, 1979, pp. 77-92. BAYLOR D.A., NuNN B.J. e ScHNAPF J.L., Spectral semitivity of cones of the monkey Macaca fascicularis, in «Journal of Physiology», 390, 1979, pp. 145-r6o. BEAN B.P., Classes of calcium channels in vertebrate cells, in «Annua! Review of Physiology », 51, 1989, pp. 367-384. BEAN R.C., SHEPHERD W. C., CHAN H. e ErcHNER J., Discrete conductance jluctuatiom in lipid bilayer protein membranes, in «Joumal of Generai Physiology», 56, 1969, pp. 741-757. BECKER W.M. e DEAMER D.W., The world of the ce/4 Menlo Park (Cal.) 1991. BINNIG G. e RùHRER H., Il microscopio a scansione a eJfetto tunnel, in «Le Scienze», 206, ottobre 1985. BRANDEN C. e ToozE J., Introduzione alla struttura delle proteine, Bologna 1994. BuGG C.E., CARSON W.M. e MoNTGOMERY ].A., Farmaci su misura, in «Le Scienze», 306, febbraio 1994. CAFFREY M. e WANG J., Membrane-structure studies using X-ray standing waves, in «Annual Review of Biophysics and Biomolecular Structure », 24, 1995, pp. 351-378. CANTOR C.R. e ScHIMMEL P.R., Biophysical chemistry, San Francisco (Cal.) 1980. CATTERAL W.A., Structure and function of voltage-gated ion channels, in «Annua! Review of Biochemistry », 64, 1995, pp. 493-531. CoLOMBEm G. e LENCI F. (a cura di), Membranes and semory tramduction, New York-Londra 1984. CREIGHTON T.E., Proteim, structures and molecular properties, San Francisco (Cal.) 1993. DANIELL ]., LomscH H. e BALTIMORE D., Molecular celi biology, New York 1990. DANIELLI J.F. e DAVSON H., A contribution to the theory ofpermeability, in «Journal of Celi Comparative Physiology », 7, 1935, pp. 495-501. DARTNALL H.J.A., BowMAKER J.K. e MoLLON J.D., Human visual pigments. Microspectrophotometric results ftom the eyes of seven persom, in « Proceedings of the Royal Society of London B », 220, 1983, pp. I15-13o. DE RosA M., GAMBACORTA A. e Guozzr A., Structure, biosynthesis and physicochemical properties of archaebacterial lipids, in « Microbiological Reviews », 50, 1986, pp. 70-80. DusnN P., I microtubuli, in «Le Scienze», 146, ottobre 1980. EcKERT R. e RANDALL D., Fisiologia animale. Meccanismi e adattamenti, Bologna 1985. ErucKSON D., L'informatica del progetto genoma, in «Le Scienze», 286, giugno 1992. FINKELSTEIN A., 'Water movement through lipid bilayers, pores and plasma membranes: theory and reality, Sunderland (Mass.) 1987.
545
www.scribd.com/Baruhk
Bibliografia FREYE C.D. e EDIDIN M., The rapid mixing of celi surfoce antigem after formation of mousehuman heterokaryons, in «Journal of Cell Science », 7, 1971, pp. 319-332. GAMBACORTA A., Guozzr A. e DE RosA M., Archaeal lipids and their biotechnological applications, in « World Journal of Microbiology and Biotechnology», n, 1995, pp. ns-131. GIEBISCH G., TosTESON D.C. e UssrNG H.H., Membrane transport in biology, Berlino-Heidelgerg 1979. GILBERT W. e VILLA-KOMAROFF L., Proteine utili da batteri ricombinanti, in «Le Scienze», 142, giugno 1980. Guozzr A. e RosELLO M., Mode/ systems: a strategy for studying biologica/ membranes, in «Colloids and Surfaces », 1989, pp. 135-150. Guozzr A., Membrane biologiche, Dizionario di Fisica- Treccani, Roma 1994. GoRTER E. e GRENDEL F., On biomolecular layers of lipoids on the cromocytes of the blood, in «Journal of Experimental Medicine», 41, 1925, pp. 439-443. GrussHAMMER R. e TATE G.G., Overexpression of integra/ membrane proteins for structural studies, in « Quarterly Reviews of Biophysics, 28, 1995, pp. 315-422. HAGIWARA S., Membrane potential-dependent ion channels in cell membrane: phylogenetic and developmental approaches, Sunderland (Mass.) 1983. HrLLE B. e FAMBROUGH D.M., Proteins of excitable membranes, New York 1987. HrLLE B., Ionic channels of excitable membranes, Sunderland (Mass.) 1992. HLADKY S.B. e HAYDON D.A., Discreteness of conductance change in biomolecular lipid membranes in the presence of certain antibiotics, in «Nature», 225, 1970, pp. 451-453. HODGKIN A.L. e HuXLEY A.F., Currents carried by sodium and potassium ions through the membrane of the giant axon of Loligo, in «Journal of Physiology », u6, 1952, pp. 449-472. HoDGKIN A.L. e HUXLEY A.F., A quantitative description of membrane current and its application to conduction and excitation in nerve, in «Journal of Physiology», n7, 1952, pp. 500-544· lsRAELACHVILI J., lntermolecular and surfoce forces, Londra 1992. ]AIN M.K. e WAGNER R.C., lntroduction to biologica/ membranes, New York 1980. KATCHALSKY A. e CuRRAN P.F., Nonequilibrium thermodynamics in biophysics, Cambridge (Mass.) 1965. KATz B. e MrLEDI R., Membrane noise produced by acetylcholine, in «Nature», 226, 1970, pp. 962-963. KEYNES R.D., Canali ionici nella membrana della cellula nervosa, in «Le Scienze», 129, maggio 1979. KIRz J., ]ACOBSON C. e HWELLS M., Soft X-ray microscopes and their biologica/ applications, in « Quarterly Reviews of Biophysics », 28, 1995, pp. 33-130. LAMB T.D., Photoreceptor spectral sensitivities: common shape in the long-wavelenght region, in « Vision Research », 39, 1995, pp. 3083-3091. LATORRE R. e ALvAREz 0., Voltage-dependent channels in planar lipid bilayer membrane, in « Physiological Reviews », 61, 1981, pp. 77-150. LATORRE R., Ionic channels in cells and mode/ systems, New York-Londra 1986. LATORRE R., 0BERHAUSE A., LABARCA P. e ALvAREZ 0., Vtzriety of calcium-activated potassium channels, in « Annual Review of Physiology », 51, 1989, pp. 385-399. LAUFER R. e CHANGEUX J.P., Activity-dependent regulation ofgene expression in muscle and neuronal cells, in « Molecular Neurobiology », 3, 1989, pp. 1-53.
www.scribd.com/Baruhk
Bibliografia
LAUGER P., Dynamics of ion tramport systems in membranes, in « Physiological Reviews », 67, 1987, pp. 1296-133!. LAUGER P., Electrogenic ion pumps, Sunderland (Mass.) 1991. LrNDER M.E. e GrLMAN A. G., Le proteine G, in «Le Scienze», 289, settembre 1992. MACCIONI R.B. e CAMBIAZO V., Role of microtubule-associated proteim in the contro/ of microtubule assembly, in « Physiological Reviews », 75, 1995, pp. 835-864. MATIHEWS G.G., Fisiologia cellulare dei nervi e dei muscoli, Bologna 1989. MATIHEWS G.K. e VAN HOLDE K.E., Biochemistry, Menlo Park (Cal.) 1990. MoLLON J.D. e BoWMAKER J.K., The spatial arrangement of cones in the primate fovea, in «Nature», 360, 1992, pp. 677-692. MoNTAL M., Design of molecular function: channels of communication, in « Annual Review of Biophysics and Biomolecular Structure », 24, 1995, pp. 31-57. NEHER E. e SACKMANN B., Single-channel currents recorded from membrane of denervated frog muscle fibres, in «Nature», 260, 1976, pp. 779-802. NEHER E. e SACKMANN B., La tecnica del patch clamp, in «Le Scienze», 285, maggio 1992. NEURATII H., Perspectives in biochemistry, 2 voli., Washington 1989 e 199I. NUMA S., A molecular view of neurotrammitter receptors and ionic channels, in « Harvey Lectures », 83, 1980, pp. r2r-r65. 0LSON A.J. e GooDSELL D.S., La visualizzazione delle molecole biologiche, in «Le Scienze», 239, gennaio 1993. PuMPLIN D.W e FRAMBROUGH D.M., Turnover of acetylcholine receptors in skeletal muscle, in « Annual Review of Physiology », 44, 1982, pp. 319-335. RrcHARDS F.M., Il problema dell'avvolgimento delle proteine, in «Le Scienze», 271, marzo 199!. RoDIECK R. W., The vertebrate retina. Principles of structure and functiom, San Francisco (Cal.) 1973· SACKMANN B. e NEHER E., Single-channel recording, New York-Londra 1983. SCHNAPF J.L. e BAYLOR D.A., Come i fotorecettori rispondono alla luce, in «Le Scienze», 226, giugno 1987. ScHULTZ J.S., I biosensori, in «Le Scienze», 278, ottobre 199I. SCHULTZ S.G., Basic principles of membrane tramport, Cambridge (Mass.) 1980. SHARON N. e Lrs H., Il ruolo dei carboidrati nel riconoscimento cellulare, in «Le Scienze», 295, marzo 1993. SrNGER S.J. e NrcHOLSON G.L., The jluid mosaic mode! of the structure of celi membranes, in « Science », 175, 1972, pp. 720-73I. STARZAK M.E., The physical chemistry of membranes, New York 1984. STOCKMAN A., MACLEOD D.l. e JoHNSON N.E., Spectral sensitivities of the human cones, in «}ournal of the Optical Society of America», ro, 1993, pp. 2491-252!. STRYER L., I meccanismi molecolari della visione, in «Le Scienze», 229, settembre 1987. STOHMER W, CoNTI F., SuzuKI H., WANG X., NooA M., YAHAGI N., Kuso H. e NuMA S., Structural parts involved in activation and inactivation of the sodium channe4 in «Nature», 339, 1989, pp. 597-603. TANFORD C., The hydrophobic elfect, New York 1980. ToDOROV I.N., Come le cellule mantengono l'omeostasi, in «Le Scienze», 270, 199I.
547
www.scribd.com/Baruhk
Bibliografia
VALE R.D., Intracellular transport using microtubule-based motors, in «Annua! Review of Celi Biology», 3, 1987, pp. 347-378. VANCE D.E. e VANCE J.E., Biochemistry of lipids and membranes, Menlo Park (Cal.) 1985. WALD G., Human vision and the spectrum, in « Science », 101, 1945, pp. 635-658. WICKRAMASINGHE H.K., Microscopi con sonda di scansione, in «Le Scienze», 256, dicembre 1989.
WoESE C.R. e Fox G.E., Phylogenetic structure of the prokariotic domain: the primary kingdoms, in « Proceedings of the National Academy of Sciences of the United States of America», 74, 1977, pp. 5088-5090. WoESE C.R., Gli archibatteri, in «Le Scienze», 156, agosto 1981. WoESE C.R., KANDLER O. e WHEELIS M.L., Towards a natura/ system of organisms. Proposal for the domains Archaea, Bacteria and Eukarya, in « Proceedings of the National Academy of Sciences of the United States of America», 87, 1990, pp. 4576-4579. WYSZECKI G. e STJLES WS., Color science concept and methods, quantitative data and formulas, New York 1982. YAYANOS A.A., Microbiology to 10.500 meters ofthe deep sea, in «Annua! Review of Microbiology», 49, 1995, pp. 371-401. YEAGLE P., The membranes of cells, New York 1987. ZILLIG W.R., ScHABEL R., Tu J. e STETIER K.O., The phylogeny of archaebacteria, including nove/ anaerobic thermoacidophiles in the light of RNA polymerase structure, in « Naturwissenschaften », 69, 1982, pp. 197-205.
CAPITOLO DODICESIMO
AA.VV., P/ate tectonics. The first 25 years, Proceedings of Summer School Earth and Planetary sciences, Università degli Studi, Siena 1995. BALLY A.W., CATALANO R. e Owow J., Elementi di tettonica regionale, Bologna 1985. BELOUSOV V.V., Una visione alternativa, in AA.VV., La riscoperta della Terra, in Enciclopedia della Scienza e della Tecnica, 1975, pp. 265-272. BusSENBACH E. e FELLERER R., Continental drift and the origin of certain minerai deposits, in « Geol. Rund. », 62, 3, 1973. BoNATTI E., Metallogenesis oceanic spreading centers, in «Ann. Rev. Earth Planet. Sci.», 3, 1975. pp. 40!-43!. BosELLINI A., Murn E. e Ricci LuccHI F., Rocce e successioni sedimentarie, in «Scienze della Terra», Torino 1989. BROWN L.F. e FISHER W.L., Seismic stratigraphic interpretation of depositional systems: examples ftom Brazilian rift and pull-apart basins., in PAYTON C.E. 1977, pp. 213-248. CAREY S.W., The expanding Earth - an essay review, in « Earth Se. Rev. », n, 1975, pp. 105143·
CosTANTINOU G. e GOVETI G.J.S., Geology, geochemistry and genesis of Cyprus su/fide deposits, in « Econ. Geol. », 68, 4, 1973, pp. 105-143.
www.scribd.com/Baruhk
Bibliografia
DEGENS E. T. e KuLBICKI G., Hydrotermal origin of metals in some East African Rift lakes, in « Miner. Deposita», 8, 4, 1973. DEWEY J.F. e BIRD J.M., Mountain belts and the new global tectonics, in «Journ. Geophys. Res. », 75, 1971, pp. 2615-2647. DEWEY J.F., La tettonica a zolle, in AA.VV., La riscoperta della Terra, in Enciclopedia della Scienza e della Tecnica, 1975, pp. 165-180. DICKINSON W.R., P/ate tectonic models for orogeny and continental margins, in «Nature», 232, 1971, pp. 41-42. DrcKINSON WR., P/ate tectonics in geologie history, in « Science », 174, 1971, pp. ro7-II3. DIETZ R. S., Continental and ocean evolution by spreading of the sea-jloor, in «Nature», 190, 1961, pp. 854-857. DoGLIONI C., Una interpretazione della tettonica globale, in «Le Scienze», 270, febbraio 199!. FUNICIELLO R. e PAROTIO M. (a cura di), La formazione delle montagne, in Quaderni di «Le Scienze», 13, 1984. GrLLULY ]., Steady p/ate motion and episodic orogeny and magmatism, in « Geol. Soc. Amer. Bull. », 84, 2, 1973. HEss H.H., Mid-ocean ridges and tectonics of the sea-floor, in « Submarine Geology and Geophysics », 17, 1965, pp. 327-332. HOLMES A., Principles of physical geology, Nelson 1978. lPPOLITO F. (a cura di), Tettonica a zolle e continenti alla deriva, Letture da «Le Scienze», Milano 1974. lPPOLITO F., Province metallogeniche e tettonica a zolle, Simposio Internacional sobre los Recursos Naturales no renovables de America Latina, Caracas, 1-6 giugno 1975. lPPOLITO F. (a cura di), La dinamica della Terra, Letture da «Le Scienze», 1980. lPPOLITO F. (a cura di), La formazione delle montagne, in Quaderni di «Le Scienze», 13, 1984lPPOLITO F. (a cura di), Tettonica a zolle, in Quaderni di «Le Scienze», 32, 1986. IsACKS B.L., OuviERI J. e SYKES L.R., Seismology and the new global tectonics, in «Journ. Geophys. Res. », 73, 1968, pp. 5855-5899. LE PrcHON X., Sea-floor spreading and continental drift, in «Journ. Geophys. Res. », 73, 1968, pp. 3661-3697· LE PICHON X., FRANCHETEAU J. e BoNNIN ]., P/ate tectonics, Amsterdam 1973. Mc KENZIE D.P. e PARKER R.L., The North Pacific: an example of tectonics on a sphere, in «Nature», 216, 1967, pp. 1276-1280. MITCHUM R.M. jr., Seismic stratigraphy and global changes in sea leve~ P art n; Glossary of terms used in seismic stratigraphy, in PAYTON C.E. 1977, pp. 205-212. MoRGAN W., Rises, trenches, great faults and crustal blocks, in «Journ. Geophys. Res. », 73, 1968, pp. 1959-1982. PAYTON C.E. (a cura di), Seismic stratigraphy- Application to hydrocarbon exploration, in « Am. Assoc. Petrol. Geol. Mem. », 26, 1977. RITIMANN A., Vulcani. Attività e genesi, Napoli 1943 (in particolare l'appendice: Nuove vedute e nuove teorie). RoNA A. P., Tettonica a zolle e risorse minerarie, in «Le Scienze», 63, 1973.
549
www.scribd.com/Baruhk
Bibliografia
SILLITOE RH., Relation of Meta! Provinces in ~stern America to subduction of oceanic litosphere, in « Geol. Soc. Amer. Bull. », 83, 8, 1972. SLoss L.L., Sequences in the cratonic interior of North American, in « Geol. Soc. Amer. Bull. », 74, 1963, pp. 93-114. VAIL P.R. e altri, Seismic stratigraphy and global changes of sea leve~ in PAYTON C.E. 1977, pp. 49-212. VAIL P.R. e altri, Relative changes of sea leve! from coastal onlap, in PAYTON C.E. 1977, pp. 63-81. VAN BEMMELEN R. W., P/ate tectonics and the undation mode!: a comparison, in «Tectonophysics », 32, 1976, pp. 145-182. VAN WAGONER J.C., PosAMENTIER H.W., MITCHUM M., VAIL P.R., SARG J.F., LounT T.S. e HARDENBOL J., An overview of sequence stratigraphy and key definitions, in WILGUS C. W. e altri (a cura di), Sea leve! changes: an integrated approach, in « Society of Economie Paleontologists and Mineralogists Special Publication » 42, 1988, pp. 39-45. VINE F.J. e MATIHEWS D.H., Magnetic anomalies over oceanic ridges, in «Nature», 199, 1963, pp. 947-949· WEGENER A.L., Die Entstehung der Kontinente und Ozeane, 1915 (trad. it., La formazione dei continenti e degli oceani, Torino 1964). WILSON J.T., A new class of foults and their bearing on continental drift, in «Nature», 207, 1965 pp. 343-347·
CAPITOLO TREDICESIMO
La storia della scienza ABBRI F., Le terre, l'acqua, le arie. La rivoluzione chimica nel Settecento, Bologna 1984. BARSANTI G., Dalla storia naturale alla storia della natura. Saggio su Lamarck, Milano 1979· BARSANTI G., Filosofia e storia della scienza, in Rossi P. 1995, vol. II. BARTOCCI C., Equazioni e orbite celesti: gli albori della dinamica topologica, Introduzione a Henry Poincaré. Geometria e caso. Scritti di matematica e fisica, Torino 1995. BELLONE E. (a cura di), Albert Einstein. Opere scelte, Torino 1988. BELLONE E., I nomi del tempo. La seconda rivoluzione scientifica e il mito della freccia temporale, Torino 1989. BELLONE E., Caos e armonia. Storia della fisica moderna e contemporanea, Torino 1990. BELLONE E., Saggio naturalistico sulla conoscenza, Torino 1992. BELLONE E. e BRUZZANITI G., Models in the history of physics, in «La Rivista del Nuovo Cimento», 15, 9, 1992, pp. 1-27. BELLONI L. (a cura di), Opere scelte di Malpighi, Torino 1967. BENVENUTO E., An introduction to the history of structural mechanics, New York 1991. BERGIA S., Dal cosmo immutabile all'universo in evoluzione, Torino 1995. BLOOR D., Knowledge and social imagery, Chicago 1976 (trad. it., La dimensione sociale della conoscenza, Milano 1994). 550
www.scribd.com/Baruhk
Bibliografia
BorrAZZINI U., Il calcolo sublime. Storia dell'analisi matematica da Euler a Weierstrass, Torino (ed. ampliata, The higher calculus. A history of rea! and complex analysis from Euler to Weierstrass, New York 1986). BorrAZZINI U., Il flauto di Hilbert. Storia del/4 matematica moderna e contemporanea, Torino 1990. BorrAZZINI U., Introduction a Cauchy. Cours d'analyse de l'École Royale Polytechnique, Bologna 1992. BouRBAKI N., Eléments d'histoire des mathématiques, Parigi 1960 (trad. it., Elementi di storia del/4 matematica, Milano 1963). BoYER C., History of the calculus, New York 1959. BOYER C., A history of mathematics, New York 1968 (trad. it., Storia della matematica, Milano 1981
1976).
BROCK W. H., The Fontana history of chemistry, Londra 1992. BRUSH S., The kind of motion we cali heat, Amsterdam 1976. BRUZZANITI G., Dal segno al nucleo. Saggio sulle origini della fisica nucleare, Torino 1993. CANTOR G., Michael Faraday. Sandemanian and scientist, Houndmills 1991. CIARDr M., L'atomo fantasma. Genesi storica dell'ipote.
www.scribd.com/Baruhk
Bibliografia GAROFALO I. e VEGETI! M. (a cura di), Opere scelte di Galeno, Torino 1978. GIORELLO G., Lo spettro e il libertino. Teologia, matematica e libero pensiero, Milano 1985. GIUSTI E., Galilei e le leggi del moto, Introduzione a Galileo Galilei. Discorsi e dimostrazioni matematiche intorno a due nuove scienze attinenti alla meccanica ed i movimenti locali, Torino 1990. GIUSTI E., Euclides reformatus. La teoria delle proporzioni nella scuola galileliana, Torino 1993. GuERRAGGIO A. e NASTASI P., Matematica, cultura e potere nell1talia postunitaria, Prefazione a Gentile e i matematici italiani. Lettere I907-I943, Torino 1993. GUICCIARDINI N., The development of newtonian calculus in Britain. IJOO-I8oo, Cambridge 1989. HEILBRON J., Electricity in the IJth and I8th centuries. A study of early modern physics, Berkeley 1971. HEILBRON J., Elements of early modern physics, Berkeley 1982 (trad. it., Alle origini della fisica moderna. Il caso dell'elettricità, Bologna 1984). HENDRY J., ]ames Clerk Maxwell and the theory of the electromagnetic fie/d, Bristol 1986. HoLTON G., The scientific imagination: case studies, Cambridge 1978 (trad. it., L'immaginazione scientifica. I temi del pensiero scientifico, Torino 1983). HoLTON G., L'intelligenza scientifica. Un'indagine sull'immaginazione creatrice dello scienziato, Roma 1984. HoLTON G., Thematic origins of scientific thought: Kepler to Einstein, Cambridge (Mass.) 1988, (n ed.). HoLTON G., The advancement of science, and its burdens, Cambridge 1986 (trad. it. parziale, Scienza, educazione e interesse pubblico, Bologna 1990). HoLTON G., Science and anti-science, Cambridge (Mass.) 1993. HoLTON G., Einstein, history, and other passion, New York 1995. KLEIN F., Vorlesunger uber die Entwicklung der Mathematik im I9. ]ahrhundert, Berlino 1926-1927. KLINE M., Mathematical thought ftom ancient to modern times, New York 1972 (trad. it., Storia del pensiero matematico, 2 voli., Torino 1991). KoYRÉ A., Etudes galiléennes, Parigi 1940 (trad. it., Studi galileiani, Torino 1976). KoYRÉ A., From the closed world to the infinite universe, Baltimora 1957 (trad. it., Dal mondo chiuso all'universo infinito, Milano 1970). KoYRÉ A., La révolucion astronomique. Copernic, Kepler, Borrelli, Parigi 1961 (trad. it., La rivoluzione astronomica. Copernico, Keplero, Borrelli, Milano 1966). KoYRÉ A., Etudes newtoniennes, Parigi 1968 (trad. it., Studi newtoniani, Torino 1965). KoYRÉ A., Etudes d'histoire de la pensée scientifique, Parigi 1973. KuHN T., The structure of scientific revolutions, Chicago 1962 (trad. it., La struttura delle rivoluzioni scientifiche, Torino 1969). LAKATOS 1., Proofi and refotations, in « The British Journal for the Philosophy of Science », 14, 1963-64 (trad. it., Dimostrazioni e confotazioni, Milano 1979). LAKATOS I. e MusGRAVE A. (a cura di), Criticism and the growth of knowledge, Cambridge 1970 (trad. it., Critica e crescita della conoscenza, Milano 1976). LA VERGATA A., Nonostante Malthus. Fecondità, popolazioni e armonia della natura. IJOO-I900, Torino 1990. LA VERGATA A., L'equilibrio e la guerra della natura. Dalla teologia naturale al darwinismo, Napoli 1990.
552
www.scribd.com/Baruhk
Bibliografia
LoVEJOY A. O., The great chain of being. A study of the history of an idea, Cambridge (Mass.) 1936 (trad. it., La grande catena dell'Essere, Milano 1966). LOVEJOY A.O., Essays in the history of ideas, Baltimora 1948 (trad. it., L'albero della conoscenza, Bologna 1982.). MALTESE G., La storia di «F=ma». La seconda legge del moto nel XVIII secolo, Firenze 1992.. MAMIANI M., La scienza esatta delle profezie, Introduzione a Isaac Newton. Trattato sull'Apocalisse, Torino 1994. MANGIONE C. e Bozzi S., Storia della logica da Boole ai nostri giorni, Milano 1993. MAzzoLINI R., The iris in eighteenth-century physiology, Bema 1980. MAYR E., The growth of biologica! thought. Diversity, evolution and inheritance, Cambridge 1982. (trad. it., Storia del pensiero biologico. Diversità, evoluzione, eredità, Torino 1990). MERTON R.K., Social theory and social structure, New York 1949 (trad. it., Teoria e struttura sociale, Bologna 1970). MoNTI D., Dirac's ho/es mode!: from proton to positron, in « Nuncius », 1, 1995. MoNTI D., Equazione di Dirac, Torino 1996. NACCI M., Introduzione a G. Friedmann. La crisi del progresso, Milano, 1994. NACCI M., Postmoderno, in Rossi P. 1995, vol. IV. NoRTI! J., The Fontana history of astronomy and cosmology, Londra 1994. PAGEL W, William Harvey's biologica! ideas. Selected aspects and historical background, New York 1966 (trad. it., Le idee biologiche di Harvey. Aspetti scelti e sfondo storico, Milano 1979). PAIS A., Subtile is the Lord. .. The science and the !ife of Albert Einstein, Oxford 1982. (trad. it., Sottile è il Signore... La vita e la scienza di Albert Einstein, Torino 1986). PANCALDI G., Darwin in Italia, Bologna 1983. PETRUCCIOLI S., Atomi, metafore, paradossi. Niels Bohr e la costruzione di una nuova fisica, Roma 1988. PUMFREY S., No science, therefore no scientific revolution? Social constructionist approach to sixteenth and seventeenth century studies of nature, in L'étude sociale des sciences. Bi/an des années 1970 et 1980 et conséquences pour le travail historique, maggio 1992., CRHST, Parigi. REooNDI P., L'accueil des idées de Sadi Carnot. De la légende a l'histoire, Parigi 1980. Rossi P., I filosofi e le macchine (1400-qoo), Milano 1962. (ristampa 1971). Rossi P., I ragni e le formiche. Un'apologia della storia della scienza, Bologna 1986. Rossi P. (a cura di), Storia della scienza moderna e contemporanea, Torino 1988. Rossi P. (a cura di), La filosofia, 4 voli., Torino 1995. RoussEAU S.G. e PoRTER R. (a cura di), The ferment of knowledge. Studies in the historiography of eighteenth-century science, Cambridge 1980. SARTON G., The history of science and the new humanism, New York 1931 (ristampa Cambridge, Mass., 1962.). ScARPELLI G., Il cranio di cristallo. Evoluzione della specie e spiritualismo, Torino 1993. SEGALA M., La favola della terra mobile. La controversia sulla teoria della deriva dei continenti, Bologna 1990. SETTI.E T., An experiment in the history of science, in « Science », 133, 1961. SHAPIN S. e ScHAFFER S., Leviathan and the air-pump: Hobbes, Boy/e, and the experimental !ife, Oxford 1985 (trad. it., Il Leviatano e la pompa ad aria. Hobbes, Boy/e e la cultura dell'esperimento, Firenze 1994).
553
www.scribd.com/Baruhk
Bibliografia SHEA W e RIGHINI BoNELLI M.L. (a cura di), Reason, experiment and mysticism in the scientific revolution, New York 1975. SHEA W, The magie of numbers .and motion. The scientific career of René Descartes, Massachusetts 1991 (trad. it., La magia dei numeri e del moto. René Descartes e la scienza del Seicento, Torino 1994). T AZZIOLI R., Ether and theory of elasticity in Beltrami's work, in « Archive for History of Exact Sciences », 46, 1993, pp. 3-27. TAZZIOLI R., Rudolf Lipschitz's work on differential geometry and mechanics, in The history of modem mathematics, vol. III, New York 1994, pp. 110-130. TRUESDELL C., Rational jluid mechanics, in Leonhardi Euleri Opera Omnia, serie II, vol. XII, parte r, 1955. TRUESDELL C. e TouPIN R., The classica! fie/d theories, in Encyclopedia ofphysics, vol. III, Berlino 1960. TRUESDELL C., Essays in the history of mechanics, Berlino 1968. TRUESDELL C. e BHARATHA S., The concepts and logic of classica! thermodynamics as a theory of heat engines, New York 1977. TRUESDELL C., The tragicomical history of thermodynamics, r822-I854, New York 1980. TRUESDELL C. e MuNCASTER R.G., Fundamentals of Maxwell's kinetic of a simple monoatomic gas, New York 1980. VEGETI! M. (a cura di), Opere di Ippocrate, Torino 1976. WESTFALL R., Never at rest. A biography of Isaac Newton, Cambridge 1980 (trad. it., Newton, Torino 1989). WHITESIDE D.T. (a cura di), The mathematical papers of Isaac Newton, 8 voli., Cambridge 1967-1981. WILLIAMS L.P., Michael Faraday. A biography, Londra 1965.
554
www.scribd.com/Baruhk
INDICE
Abbri, Ferdinando, 500 Abegg, Richard, 383-384 Abel, Frederick Augustus, 369 Achinstein, P., 36 Adler, Alfred, 6-7, 16 Agassi, Joseph, 23-24, 35 Agazzi, Evandro, 25 Aiken, Howard, 146-147, 149, 152 Albert, Hans, n Alder, Kurt, 403 Alexander, James, I28-130, Alvarez, Luis, 239 Alvarez, Walter, 239 Ampère, André Marie, 295 Anderson, Cari David, 310 Anderson, James, 187, 198 Anderson, William A., 377 Anderson, Robert, 178 Andronov, Alexandr A., 122 Appel, Kenneth, IOI-I02, 137 Archimede, 479 Argand, Emile, 446 Aristotele, 29-31, 33, 35, 360, 479, 498
Armstrong, D.M., 188 Armstrong, Henry Edward, 373 Amold, Vladimir L, 123, 125, 130 Arrhenius, Svante August, 257, 379. 394. 407
Artin, Emi!, II9 Asanuma, C., 216 Asaro, Frank, 239 Aschbacher, Michael, 132-133 Aschoff, Ludwig, 269 Ashby, William Ross, 84, 154, 162 Aston, Francis William, 382 Atiyah, Michael, 142 Avogadro, 51, 360-362, 364, 500 Ayer, Alfred Jules, 78 Babbage, Charles, 147, 149 Bach, Fritz, 273 Backus, John, 160, 162
DEI
NOMI
Bacone, Francesco, 444 Baekeland, Leo Hendrik, 404 Bailey, G.H., 263 Balmer, Johann J., 382 Bambach, R., 246 Banach, Stephan, 121 Bardeen, John, 317-318 Bar-Hillel, Yehoshua, 167-168 Barkla, Charles G., 379 Barone, Francesco, 26 Barsanti, Giulio, 500 Bartlett, F.C., 214, 219 Bartley m, W.W., 23 Bartocci, Claudio, 495 Barton, Derek, 402 Bean, R.C., 433 Becchi, Carlo, 286 Beckman, Amold, 394 Becquerel, Antoine Henri, 382 Behring, Emi! von, 256 Beilinson, 142 Beli, J.S., 291 Bellone, Enrico, VII, 25, 469 Belloni, Luigi, 499 Belnap, N., 54 Belousov, Vladimir V., 444, 449 Benacerraf, Baruj, 273 Bennet, Joe Claude, 266 Benvenuto, Edoardo, 495 Berger, J., 204 Bergman, Torbern, 364 Berkeley, George, 57 Bernigaud, Louis Marie Hilaire,
Bevilacqua, Fabio, 502 Bierrum, Niels, 395 Bigelow, Julian, 147, 151 Binnig, Gerd, 418 Biot, Jean Baptiste, 366 Birkhoff, George D., 122 Birman, Joan, 130 Biyvoet, J.M., 378 Bjorkman, Pamela, 275 Black, Fisher, 172 Black, James, 413 Bledsoe, W.W., 95, 173 Bloch, Felix, 377, 414 Blomstrand, Christian W., 405406, 408
Bloom, F., 205. Bloor, David, 486-487 Bobrow, Daniel, 169, 179 Boden, Margaret, 199 Boehmer, Harald von, 275 Boerhaave, Hermann, 364 Bohm, Corrado, 160 Bohr, Niels, 292, 381-383, 387, 409, 483-485
Boltzmann, Ludwig, 74, 297, 394 Bombieri, Enrico, n9 Boole, George, 81, 289 Bore!, Armand, 143 Born, Max, 387 Bose, Satyendranath, 295, 317 Bottazzini, Umberto, n5, 493-494, 496
Bourbaki, Nicolas, n5, II7-u8, I2I-I22, 130, 142, 494
404
Bernouilli, Jacques, 494 Berthelot, Pierre-Eugene, 367, 393 Berthollet, Claude-Louis, 360, 372 Bertela, Francesco, 332 Berzelius, Jons Jacob, 361-362, 364-365, 368-369, 396, 406
Beth, Evert Willem, 88 Bethe, Hans, 332, 409
555
www.scribd.com/Baruhk
Boyd, 72 Boyer, R.S., 96, 494 Boyle, Robert, 360, 469, 486-488 Bozzi, Silvio, 493 Bradhaw, Gary, 184 Bragg, William Henry, 378 Bragg, William Lawrence, 379 Brabe, Thyco, 344
Indice dei nomi Braitenberg, Valentino, 195 Brattain, Walter H., 317 Brauer, Richard, 132 Brentano, Franz, 189-190 Bretscher, Peter, 277-278 Bridgman, Percy Williams, 34 Briggs, Derek, 245 Britten, R.J., 237 Brock, William, 501 Broglie, Louis-Victor de, 291-292, 3II, 386 Bromberger, S., 39, 53-54 Bronsted, J ohannes Nicolaus, 397 Brooks, Rodney, 192-193 Bruzzaniti, Giuseppe, 499-500 Biichner, Hans, 256 Burali-Forti, Cesare, II? Buridano, Giovanni, 7 Burnet, Franck Madarlane, 259, 261-262, 283, 285 Burtt, E.A., 25 Busch, W., 18 Bush, Vannevar, 148 Butlerov, Alexander Michailovic, 365-366 Cabibbo, Nicola, 188, 313 Caianiello, Eduardo, 163 Cairns-Smith, A.G., 250 Califano, Salvatore, 359 Cannizzaro, Stanislao, 360, 373 Cantor, Geoffrey, II?, 135, 498499 Cappelletti, Vincenzo, 501 Carey, S.W., 444, 449 Carlisle, Antony, 364 Carnet, Sadi, 477-479 Caro, Heinrich, 369 Carothers, Wallace H., 404 Carson, Hampton, 223 Cartan, Elie, u8, 122, 469 Cartan, Henri, II6, 120, 143 Cartesio (René Descartes), 29, 360, 469, 499 Cartwright, Nancy, 59-60, 64-67, 69-70, 77 Casson, Andrew, 126 Castelnuovo, Guido, II8-u9 Cauchy, Augustine-Louis, 493-494, 496 Cayley, Arthur, 136 Ceccato, Silvio, 167 Ceppellini, Ruggero, 272-273 Ceruti, Mauro, 222 Chadwick, James, 297, 381 Chaikin, Semen Emanuilovic, 122 Chaitin, Gregory ]., 143 Changeux, Jean-Pierre, 202, 205, 213-216, 429 Chase, Merill W., 270 Chevalley, Claude, II6, 132
Chew, G., 301 Chomsky, Noam, 166-167, 182, 187 Christenson, J.H., 306 Church, Alonzo, 82, 86 Churchland, Patricia Smith, 191, 214 Churchland, Pau!, 214 Ciardi, Marco, 500 Claman, Henry, 270 Cleve, Per, 405 Cohen, I. Bernard, 25, 492 Cohen, Stanley, 281 Cohn, Melvin, 277-278 Cole, K.S., 204 Coles, Stephen, 169 Colmerauer, Alain, 8o, 106, 174 Compton, Arthur H., 385 Cook, S.A., 161 Cooper, Archibald Scott, 365 Cooper, Leon N., 318-319 Copernico, Nicola, 469 Corbellini, Gilberto, 254, 500 Cordeschi, Roberto, 145 Cormack, Alan, 204 Corsi, Pietro, 500 Costabel, Pierre, 473 Coulomb, Charles-Augustine de, 65, 302 Coulson, Charles, 391 Coutinho, Antonio, 280 Craft, James Mason, 396, 403 Craig, L.C., 265 Craik, K.J., 214, 218 Crick, Francis Harry Compton, 378, 415 Crombie, Alistair, 470 Cronin, James, 306 Crookes, William, 380 Crum Brown, Alexander, 365 Curie, Pierre, 382 Curtis, H.]., 204 Dale, Henry, 202 Dalton, John, 360-362 Danchin, A., 213 Danielli, John Frederic, 426-427 D'Arcy Thompson, 236 Darwin, Charles, 124, 212, 224-226, 238, 471, 498 Dausset, Jean, 272 Davidson, E.H., 237 Davies, D.W., 153 Davis, Martin, 82-83, 89-91, 173 Davisson, Clinton Joseph, 386 Davson, H., 426-427 Dawkins, Richard, 232, 235 de Baggis, H.F., 123 Debye, Peter, 377, 395 de Chancourtois, Alexandre Béguier, 363 Degens, 466
www.scribd.com/Baruhk
de Groot, Adrian, 156-158 Dehn, Max, 128 Deisenhofer, ]., 378 Delbriick, Max, 260 Deligne, Pierre, u9, 140, 142 Delsarte, Jean, II6 Democrito, 360 de Morgan, Augustus, 136 de Morveau, Guyton, 365 Dennett, Daniel, 189-190 Descartes, René, ~ Cartesio De Sitter, Willem, 322 Desmond, Adrian, 498-499 Devlin, Keith, 139 de Vries, Gerard, 486 Dewar, Michael J.S., 369, 390-391 Dewey, John, 37 Diels, Otto, 403 Dieudonné, Jean, II6-II?, 121, 130, 494 Dijkstra, Edsger W., 85 Diofanto, 137, 487 Dirac, Pau! Maurice Adrien, 121, 288, 295> 299-301, 303-304, 387, 469, 500 Dobereiner, Johann Wolfgang, 363, 396 Dobzhansky, Theodosius, 228, 235 Doering, William, 403 Doglioni, Carlo, 458 Doherty, Pau!, 274 Donaldson, Simon, 127 Donovan, Stephen, 242 Doolittle, W.F., 231 Doolittle Walcott, Charles, 244 Doppler, Christian, 321, 333 Douady, Adrien, 135, 139 Dragoni, Giorgio, 502 Drake, Stillman, 472 Dreyer, William J., 266 Dreyfus, Hubert L., 84, 167 Duhem, Pierre , 8-10, 35, 66, 74, 469 Dulong, Pierre-Louis, 361 Dumas, Jean-Baptiste-André, 362, 365, 372 du Vignaud, Vincent, 403 Dweyer, Frank, 409 Dyer, Michael, 194 Dyson, Freeman, 250 Eccles, John Carew, 213, 215 Eckert, ]. Presper, 148 Eddington, Arthur Stanley, 6, 15 Edelman, Gerald, 210, 212-216, 263, 265, 268-269 Edidin, M., 418, 427 Ehresmann, Charles, 120 Ehrlich, Pau!, 202, 256-257 Eigen, Manfred, 250, 410 Eilenberg, Samuel, 120
Indice dei nomi Einstein, Albert, 7, 16, 20, 34, 290, 292-297, 302-303, 321-323, 385-386, 477> 481-483, 485, 491, 493-494, 501 Eldredge, Niles, 224, 226, 233-234 Elion, Gertrud, 413 Engels, F riedrich, 48 5 Enriques, Federigo, VII, n8 Epicuro, 360 Epstein, David, 139 Erdmann, Otto, 405 Erlenmayer, Emi!, 365 Ernst, Richard, 377 Erwin, D., 245 Esson, William, 393 Eulero, 104, 360, 472, 494 Evans, Thomas, 169 Everett III, H., 292 Ewald, Pau!, 379 Eyring, Henry, 395 Fagraeus, Astrid, 270 Fajans, Kasimir, 409 Faltings, Gerd, 138, 141 Faraday, Michael, 69, 295, 364, 370, 498 Fatou, Pierre, 135 Fatt, P., 204, 436 Feigenbaum, Edward, 170-172, 185 Feigl, Herbert, 188 Feit, Walter, 132 Felton, Lloyd D., 263 Fenner, Frank, 259 Fermat, Pierre de, 96, 104, 137-138, 140-141 Fermi, Enrico, 295, 304-305, 309310, 387 Feuer, Lewis, 481-485, 487 Feyerabend, Pau! K., 3, 5, 23, 28, n, 474 Feynman, Richard P., 302, 317 Fikes, Richard, 174 Fine, A., 6o, 71-73 Fischer, Bernd, 130 Fischer, Emil, 404 Fischer, Franz, 403 Fischer, Hans, 403 Fisher, R.A., 195 Fitch, Val Logsdon, 306 Flory, Pau!, 404 Floyd, Robert W., 98 Fliirscheim, Bernard, 399-400 Fodor, Jerry, 187, 190-191 Fok, Vladimir Aleksandrovic, 387, 391 Foucault, Miche!, 490 Fourier, Jean-Baptiste Joseph, 121, 377-378 Fox, Sidney, 239, 249 Friinkel, Abraham A., II7
Frankland, Edward, 365, 373 Freedman, Michael H., 126-127 Frege, Friedrich Gottlob, VIII, 81 Freguglia, Paolo, 493 Fremy, Edmund, 405-406 Freud, Sigmund, 6-7, 16 Frey, Gerhard, 138 Freye, C.D., 418, 427 Friedel, Charles, 396, 403 Friedman, M., 40 Friedmann, Aleksander Aleksandrovic, 322, 332, 357 Friedrich, Walter, 379 Fukui, Kenichi, 400-401 Galilei, Galielo, x, 293, 344, 347, 469-473, 476, 479, 490, 493, 495-496, 498 Galluzzi, Paolo, 502 Gamba, Augusto, 163 Gamow, George, 305, 320 Garofalo, lvan, 500 Gassendi, Pierre, 360 Gasser, Les, 192 Gauss, Karl friedrich, 127 Gay-Lussac, Joseph-Louis, 361, 365, 368, 372-373 Gelernter, Herbert, 84, 165-166, 173 Gel'fand, Izrail M., 121 Gell-Man, Murray, 310:3n Gentzen, Gerhard, 88, 173 Geoffroy, Etienne François, 364 Gerhardt, Charles, 362, 365 Germer, Lester Halbert, 386 Geymonat, Ludovico, vii-xix, II5, 500-502 Ghiselin, Michael, 223, 232 Giauque, William Francis, 382 Gillespie, Ronald, 409 Gilmore, Pau!, 88 Ginsburg, V.L., 319 Giorello, Giulio, 493 Giusti, Enrico, 495-496 Glashow, Sheldon, 309, 313 Glick, Bruce, 270 Gliozzi, Alessandra, 4n Godei, Kurt, 81-82, 87, 143 Goethe, Johann Wolfgang, 252, 484 Goldbach, Christian, 185 Goldschmidt, Richard, 236 Goldstein, Eugen, 380 Goldstone, ]., 308 Good, 1.]., 148, 154 Good, Robert, 270 Goodman, Nelson, 33, 38, 43-44, 77 Goodwin, Brian, 238-239, 252 Gorenstein, Daniel, 130-133, 141 Gorer, Peter A., 272
557
www.scribd.com/Baruhk
Gorter, E., 426 Goudsmit, Samuel Abraham, 383 Gould, Stephen ]., 224, 226, 229230, 233-234, 238, 246, 249, 252-253 Goursat, Edouard, u6 Grauert, Hans, 138 Green, Cordell, 173-175 Greeno, ].G., 47 Gregory, R.L., 162 Grendel, F., 426 Griess, Robert, 130 Gross, D.]., 312 Grossatesta, Roberto, 7 Grossberg, Stephe, 187 Grossman, W., 219 Grotlrendieck, Alexandre, n9-120, 141 Grubb, Rune, 264 Griinbaum, Adolf, 8-15, 77 Guerraggio, Angelo, 495 Guicciardini, Niccolò, 494 Guillemin, Roger, 203 Guldberg, Cato, 393 Guth, A., 323 Guthrie, Francis, 101, 136 Guzman, Adolfo, 181 Haarmann, E., 449 Hacking, 6o, 68-71, 77-78 Haken, Wolfgang, 101-102, 137, 141 Hall, E.H., 69 Hall, Rupert, 497 Hamilton, William, 136, 479 Hammett, Louis P., 397 Hanson, Norwood Russell, 37 Harada, Manabu, 132 Harcourt, August Vernon, 393 Harman, G., 58 Harnad, Stevan, 194 Harris, John H., 17, 21 Hartree, Douglas R., 387, 391 Harvey, William, 469-470, 498499 Hasek, Milan, 259 Hasse, Helmut, II9 Hassel, Odd, 401-402 Hauptmann, Herbert Aron, 378 Hausdorff, Felix 135-136 Haydon, D.A., 433 Hayes, Patrick, 175-176, 179, 199 Heaviside, Olivier, 121 Heawood, John, 136 Hebb, Donald 0., 153, 163, 188, 195, 205-206, 2II Hedberg, Hollis D., 467 Heesch, Heinrich, 137 Heidelberger, Michael, 263 Heilbron, John, 499 Heisenberg, Werner, 288, 386-387, 391
Indice dei nomi Heitler, Walter, 387-388 Helrnholtz, Hermann Ludwig von, 435 Hempel, Cari Gustav, 14-15, 36-41, 44, 46·47 Hendry, 496 Herbrand, J., 88-90, 173 Herschbach, Dudley Robert, 396 Hertz, Heinrich, 59, 74 Hertzsprung, Ejnar, 341-342 Herzberg, Gerhard, 391-392 Hess, Harry H., 450 Hess, W.R., 219 Heumann, Cari, 369 Hewitt, Cari, 18o, 192 Higgs, P.W., 6o, 308, 314, 324 Hilbert, David, 115-116, 122, 129, 140, 143, 484, 493 Hillis, David, 188 Hilschmann, N., 265 Hintikka, Jaakko, m Hinton, Geoffrey, 187, 191 Hironaka, Heisuke, 119 Hirzebruch, Friedrich, 126 Hitchings, George, 413 Hittorf, Johann Wilhelm, 380 Hladky, S.B., 433 Ho, Mae Wan, 238 Hoare, C.A.R., 98 Hobbes, Thomas, 486 Hodges, 146 Hodgkin, Alan Lloyd, 204, 431-435 Hodgkin, Dorothy Crowfoot, 378 Hoffman, David, 139 Hoffmann, Roald, 401, 403 Hofmann, August Wilhelm von, 369, 373 Holland, John, 153, 195, 197 Holmes, Arthur, 446 Holton, Gerald, 25, 477, 491-493, 497 Hopfield, John, 187-188 Horgan, J., 104, 139 Horn, 105-106, no, 174 Hounsfield, G., 204 Hubbard, John, 135, 139 Hubble, Edwin Powell, 321-322, 324·325, J32, 348, 357 Hubel, David H., 208, 216 Huber, R., 378 Hiibner, K., 25 Hiickel, Walter, 391, 395 Hughes, John, 203 Hughes, Ted, 400 Hull, Albert, 378 Hull, David, 223, 232 Humboldt, Alexander von, 361, 373 Hume, David, 480, 4lh-483 Hund, Friedrich, 388, 390-391 Huntington, George, 205
Huxley, Andrew Fielding, 431435 Hyatt, John Wesley, 404 lliopoulos, J., 313 lngold, Christopher Kelk, 400 Ippolito, Felice, 443 Israel, Giorgio, 502 J ablonski, David, 241 Jacob, François, 230 Jacobi, Cari Gustav Jacob, II9 J affe, Arthur, 140-142, 144 Jammer, M., 25 Janeway jr., Charles, 275 Janko, Zvonimir, 131 Jeans, J., 328 Jeener, Jean, 377 Jefferson, Geoffrey, 146 Jeffrey, R.C., 47 Jerne, Niels Kaj, 260-261, 270, 278·279 J evons, Stanley, 81 Johnson-Laird, Philip, 186-187, 193 Jones, John Lennard, 390 Jones, Vaughan, 129-130 Jorgensen, Sophus, 405-406, 408 Josephson, Brian David, 69, 319 Julia, Gaston, 135 Kabat, Elvin, 263 Kamerlingh Onnes, Heike, 318 Kandel, E.R., 201 Kant, lmmanuel, 7, 31, 332, 338, 479 Kaplanski, l, 95 Kappler, John, 275 Karle, Jerome, 378 Karlin, Arthur, 202 Karp, R.M., 161 Katz, Bernard, 204, 433, 435-437 Kauffman, Stuart A., 251-253 Kekulé, Friedrich August, 362, 365, 370·371, 390 Kelvin, Lord, 127, 477 Kempe, Alfred B., 101, 136-137 Kendall, Forrest E., 263 Kendrew, John Cowdery, 378 Keplero, Giovanni, 184, 349, 470·471, 490 Kierkegaard, Soren Aabye, 483484 Kimura, Motoo, 229 Kinsey, Alfred, 231 Kirchhoff, Gotlieb Sigismund, 396 Kirsh, David, 192-193 Kitasato, Shibasaburo, 256 Klein, Jan, 274, 494 Kline, 494 Knipping, Pau!, 379 Kobayashi, M., 313
www.scribd.com/Baruhk
Kodaira, Kunihiko, II9 Kèihler, George, 266 Kohn, A., 31 Kohonen, Teuvo, 187 Kolbe, Hermann, 367 Kèirner, Guglielmo, 371 Kossel, Walther L., 383-384, 409 Kosterlitz, Hans, 203 Kowalski, Robert, 174 Koyré, Alexander, 25, 470, 473, 495, 497 Krantz, Steven, 139 Kripke, Saul, n2 Kuhn, Richard, 403 Kuhn, Thomas, 3, 5, 23, 25, 28, 35, 73, 199, 474> 490 Kulbicki, 466 Kunkel, Henry, 264 Lagrange, Giuseppe Luigi, 495 Laird, John, 184 Lakatos, lmre, 3, 5, 23, 28, 76, 474, 494> 497 Lam, C.W.H., 104 Landau, Lev Davidovic, 317 Landolt, H.H., 367 Landsteiner, Karl, 257-258, 270271 Lang, Serge, II9·120, 138 Langley, Patrik, 184 Langmuir, lrving, 384, 399 Langton, Cristopher, 195 Laplace, Pierre-Simon de, 338, 345> 496 Lapworth, Arthur, 398-400 Laudan, L., 23, 58, 66, 72 Laue, Max von, 379 Laurent, Auguste, 362, 365 Lautbur, P.C., 204 La Vergata, Antonello, 500 Lavoisier, Antoine-Laurent, 361, 372 Le Bel, Joseph, 367, 378 Lecoq de Boisbaudran, 363 Leder, Philip, 267 Lederberg, Joshua, 170-171, 261, 266 Lee, Tsung-Dao, 305 Lee, Yuan Tseh, 396 Lefschetz, Solomon, 122-123 Leibniz, Gottfried Wilhelm, 8182, 501 Lenat, Douglas, 185 Leray, Jean, 120 Leucippo, 360 Levi, 1., 27 Levi Montalcini, Rita, 203 Levy, Silvio, 139 Lewis, Gilbert Newton, 384, 399, 409 Lewontin, Richard, 229, 235, 239
Indice dei nomi Liapunov, Alexandr Mikhailovic, 12.2.-12.3 Lie, Sophus, 118, 12.4, 131 Liebig, Justus von, 365, 368, 373 Linde, A., 32.3 Linneo, Carlo, 42.2. Lisenko, Trof1rn Denisovic, 34 Listing, Johannes Benedikt, 12.7 Little, Clarence C., 2.72. Lolli, Gabriele, 79 Lomonosov, Michail Vasil'eviC, 360 London, Fritz W., 317, 387-388 Longuet-Higgins, Christopher, 391 Lorentz, Edward N., 135 Lorentz, H.A., 6o Lovejoy, Arthur, 470 Lovelock, James, 2.47 Lowry, Thomas Martin, 397 Luria, Salvator, 2.60 Luybimov, A., 330 Lyons, Richard, 133 Maccagni, Carlo, 502. Mach, Emst, 74, 469, 472., 482.-483 MacKay, Donald, 162., 1S9 MacLane, Saunders, 12.0, 143 Magoun, 2.16 Maiani, L., 313 Malgrange, Bemard, 12.3 Malpighi, Marcello, 473, 499 Maltese, Giulio, 495 Mamiani, Maurizio, 500 Mandelbrot, Benoit, 134-135, 140 Mandel'shtam, L., 376 Mangione, Corrado, VII, 493 Manin, Yurii, 13S Marcus, Rudolph A., 396 Margulis, Lynn, 2.4S Markovnikov, Vladimir, 39S Markus, Lawrence, 12.3 Marr, David, 1S1-1S3, 1S7 Marrack, Philippa, 2.75 Martin, John, 375 Marx, Karl Heinrich, 6-7, 16, 69, 4S2.-4S3 Maskawa, K., 313 Mason, 133 Masterman, Margaret, 167 Mather, John N., 12.3-12.4 Mathieu, Emile, 13I-I32. Matthews, D.H., 452. Mauchly, John, 148, 153, 159 Maxwell, G., 59-60, 62. Maxwell, James Oerk, 59-60, 12.7, 2.95-2.97, 3S0-3SI, 394, 496, 49S Mayr, Ernst, 2.2.2.-2.2.4, 2.2.6-228, 232, 239, 498 Mazzolini, Renato, 499-500 McCarthy, John, S5-S7, 97-98, 100-101, 114, 159, 160, 162, 172-176, 179-ISO, 186, 199
McClelland, James, 19S McCulloch, Warren, 147-149, 152, 154, 162., 199 McDermott, Drew, 177, 199 McLewis, W.C., 394 Mecke, Reinhard, 376 Medawar, Peter Brian, 2.59 Meissner, W., 31S Mellor, David, 409 Mendeléev, Dmitrij Ivanovic, 360, 363, 406 Mensutkin, N.A., 397 Mentitore, 117 Merrifield, Bruce, 404 Merton, Robert, 474 Metchnikoff, Elie, 255-2.56, 269 Meusnier, ]., 361 Meyer, Lothar, 365, 396 Meyerson, E., 25 Michael, Arthur, 399 Michaelis, Leonor, 394 Michel, Helen, 2.39 Michel, M., 264 Michelson, Albert Abraham, 35 Michie, Donald, 14S, 159, 171-173 Miledi, R., 205, 433, 437 Miller, D. 17, 2.0-2.1 Miller, Jacques F.A.P., 270-271 Miller, Stanley, 249 Millikan, Robert Andrews, 3S5 Milis, Robert L., 127, 30S Milnor, John W., 12.6 Milstein, Cesar, 266 Minkowski, Hermann, 4S2 Minsky, Marvin, S3-S4, 114, 153154, 159, !62-163, 165, 169-170, 172., 177-179, !SI, 1S3, 1S6, 1SS, 193, 197-199, 2.19 Miolati, Arturo, 407 Mischel, H., 37S Mitchell, Graham, 2.71 Mitchison, Avrion, 2.71 Mitchum, 464 Mitscherlich, Eilhard, 361 Mizushima, San-ichiro, 376 Mohr, E., 401 Moltz, H., 219 Monod, Jacques, 249, 251 Monti, Dalida, 500 Moore, James, 96, 49S-499 Mordell, Lewis, 120, 13S, 141 Morgenstern, Oskar, 155 Mori, Shigefumi, 119, 141 Morley, Edward Williams, 35 Morpurgo, Giorgio, 311 Morris, Simon Conway, 245 Morse, Marston, 122, 12.5 Moruzzi, Giuseppe, 216 Moseley, Gwyn Jeffreys, 379 Mountcastle, Vemon, 214, 216
559
www.scribd.com/Baruhk
Mueller, 42.0 Muller, Hermann Joseph, 2.2S Mulliken, Robert S., 390-391 Mumford, David, n9 Murray, Francis, 12.9 Nacci, Michela, 490 Nachmanson, David, 202 Nagel, Ernest, 41-42 Nastasi, Pietro, 495 Natta, Giulio, 404-405 Navier, Claude L.M., 12.6 Ne'eman, Y., 310 Neher, Erwin, 204, 433-434 Nernst, Herman Walther, 395 Neumann, John von, So, 9S, 12.9, 149> 155, !SS, 191, 2SS, 2.95 Newell, Alan, S3, S5, S7, 157-I6I, 164, !66, 171, 173> IS3-IS4, !86, 189-190, 199 Newman, Max, 14S Newton, Isaac, n, 14, 20, 32., 65, 124, 2.96, 302.-304, 364, 469472, 476-477> 493-496 Nicholson, G.L., 427 Nicholson, William, 364 Nietzsche, Friedrich Wilhelm, 7S Nilsson, Nils, 174 Nobel, Alfred Bernhard, 369 Nordin, Albert A., 270 Norrish, Ronald, 409-410 North, John, 501 Norton, Simon, 130 Nossal, Gustav, 2.61 Numa, S., 2.02 Nyholm, Ronhald, 409 Obermayer, Friedrich, 2.57 Occhialini, Giuseppe, 3S1 Oettinger, Anthony, 149-153, 156, 160, 166-167 Olbrechts-Tyteca, 29 Olds, J., 219 Oliverio, Alberto, 201 Onsager, Lars, 317, 395 Oppenheim, P., 37-41 Orgel, Leslie, 409 Osculati, Bianca, 2S6 Ostwald, Friedrich Wilhelm, 367, 393-394, 396-397, 405 Oudin, Jacques, 264 Owen, Ray D., 2.59 Oyama, Susan, 236, 239 Pagel, Walter, 470 Pais, Abraham, 4S1 Pancaldi, Giuliano, 500 Papert, Seymour, 172., 181, 1S8, l97-I9S Pappo di Alessandria, 84 Pask, Gordon, 162 Pasteur, Louis, 366 Paul, William, 275
Indice dei nomi Pauli, Wolfgang, 295, 301, 3II, 317, 383, 388
376
Pauling, Linus, 258-259, 388-390, 469
Peano, Giuseppe, 82, 135 Pedersen, K.O., 397 Peixoto, Mauricio M., 123 Penfield, Wilder, 207, 213 Penney, W.C., 409 Penrose, Roger, 126 Penzias, Arnold, 320 Perelman, Chaim, 29-30 Perkin, William Henry, 369 Persico, Enrico, VII Petit, Alexis, 361 Petruccioli, Sandro, 500 Phelps, M.E., 204 Pick, Ernst P., 257 Pimentel, George, 376, 396 Pitts, Walter, 147-149, 153, 162, 199 Placzek, G., 376 Planck, Max Karl, 293, 298, 304, 312, 319, 325-326, 329, 381, 385 Platone, VIII, 31, 479 Podolsky, B., 290 Poggio, Tomaso, 181 Poincaré, Henri, 74, 122-123, 126127, 136, 140, 495 Polanyi, John Charles, 395 Polanyi, Michael, 25, 395 Pollard, Jeffrey, 239 Polvani, Giovanni, 501 Polya, George, 157, 160 Pontrjagin, Lev S., 122 Pope, William Jackson, 405
Popper, Karl Raimund, XVIII, 419, 21-24, 28, 37, 47, 58, 71-72, 74> ?6, 213, 215, 474 Porter, George, 410 Porter, Rodney, 264 Porter, Roy, 500 Porto, S.P.S., 376 Poulik, 265 Pravitz, Dag, 90-91, 173 Pregi, Fritz, 375 Prigogine, llya, 249 Proust, Joseph-Louis, 360 Pumfrey, Stephen, 489-490 Purcell, Edward Milis, 377, 414 Putnam, Hilary, 3, 90-91, 173, 188 Pylyshyn, Zenon, 186-187, 190-191 Quillian, M. Ross, 167-169, 177, 179, 187
Quine, Willard Van Orman, 3, 74-?6
Quinn, Frank, 140-142, 144 Rabe, Pau!, 403 Rabi, Isidor, 377 Raff, Martin, 271 Railton, P., 36
Raman, Chandrasekhara Venkata,
XVIII,
Raphael, Bertram, 169 Raup, D.M., 242, 246 Rayleigh, John William Strutt, 376, 387
Ree, Rimhak, 132 Reina Newlands, John Alexander, 363
Remmert, Reinhold, 121 Rescher, N., 44 Ribet, Ken, 138 Richard, II? Riemann, Georg Friedrich Bernhard, II9, 140 Rittmann, A., 448 Roberts, Larry, 181 Robinson, Abraham, 89, 91 Robinson, J. Alan, 173 Robinson, Robert, 378, 399-400 Rochester, Nathaniel, 152-153, 159, 165, 195
Rohrer, H., 418 Rokhlin, Vladimir A., 122 Rona, A.P., 466 Riintgen, Wilhelm, 379 Roothan, C.C.]., 391 Rorty, Richard, 214 Rosen, N., 290 Rosenblatt, Frank, 162-163, 172, 18?, 197-198
Rosenbloom, Pau!, 184 Rosenblueth, Arturo, 147, 151 Rosenfeld, E., 198 Ross, John, 466 Rossi, Paolo, 480, 497, 500-501 Rubbia, Carlo, 309 Rubin, K., 139 Rudin, 420 Ruelle, David, 135-136 Rumelhart, David, 187, 191 Russell, Bertrand, 67, II?, 158 Russell, diagramma, 341-342 Rutherford, Ernest, 381-382 Rutishauser, Heinz, 160 Rydberg, Johann Robert, 382 Sachse, H., 401 Sackmann, B., 204, 433-434 Saint-Hilaire, Geoffroy de, 252 Salam, Abdus, 309 Salmon, W., 36, 47, 50 Samuel, Arthur, 152, 154, 156, 159-161, 196
Sangree, 464 Sapienza, C., 231 Sarton, George, 475-477, 497, 502 Saunders, Peter, 239 Sawkins, F., 465 Scarpelli, Giacomo, 500 Schaffer, S., 486, 488-489
www.scribd.com/Baruhk
Schank, Roger, 177-178, 180, 183, 186, 193
Scheele, Karl Wilhelm, 361 Scherrer, Pau!, 377 Schlipp, R., 409 Schmidt, Karl, II9 Schmitt, Otto, 152, 154 Scholsmann, Stuart, 271 Schiinbein, Christian Friedrick, 369
Schopf, J.W., 248 Schrieffer, John Robert, 318 Schriidinger, Erwin, 289, 292, 294, 386-388, 391
Schwartz, Jeffrey H., 201 Schwartz, Laurent, 121 Schwarzschild, Karl, 345 Schwinger, Julian, 302-303 Scott, Dana, 87 Scriven, M., 37 Searle, John, 145, 191 Segala, Marco, 500 Segre, Corrado, II8 Seifert, Herbert, 120, 128, 130, 355 Selfridge, OJiver, 157, 159, 162 Semenovic Cvet, Michail, 375 Semon, Richard, 259 Sepkoski, J., 242, 246 Serre, Jean-Pierre, 120, 138, 143 Settle, Thomas, 473 Severi, Francesco, n8-n9 Shafarevic, Igor, n 9 Shannon, Claude, 148, 151-154, 156-157, 159
Shapin, S., 486, 488-489 Shaw, J. Clifford, 83, 158, 160-161, 164, 173
Shea, William, 499 Shilov, Georgii E., 121 Shimanouchi, Takehiro, 376 Shimura, Goro, 138, 141 Shockley, William, 317 Sidgwick, Nevi! Vincent, 409 Siegel, Cari, 120, 138 Sillitoe, RH., 465 Silverberg, A., 139 Simon, Herbert, 83, 85, 87, 157162, 164-167, 169-171, 173, 183184, 186, 190, 193, 198-199 Singer, S.]., 42 7 Sklodowska, Marie, 382 Skolem, Thoralf Albert, 88, 173 Slater, John Clark, 387, 389 Sloss, L.L., 464 Smale, Stephen, 123, 125, 127, 135, 140 Smart, J.C., 188 Smart, J.J., 58 Smekral, A., 376 Smith, Brian C., 197
Indice dei nomi Smith, Kendall, 281 Smolensky, Pau!, 197, 199-200 Snell, George, 272 Snell Van Royen, Willebrord, 65 Sobolev, Sergei I., 121 Sobrero, Ascanio, 369 Soddy, Frederick, 382 Sokoloff, L., 204, Solomon, Ronald, 131, 133 Sommerfeld, Amold, 379, 383, 385 Sorensen, Soren, 394 Spengler, Oswald, 486-487 Spinoza, Baruch, 482-484 Squire, Larry R., 209 Stanley, Steven, 242-243 Staudinger, Hermann, 404 Steenrod, Norman E., 120, 122 Stein, L., 204 Steinberg, Robert, 132 Steinbuch, Karl, 163 Stibitz, George, 159 Stock, Alfred, 409 Stoicheff, B.P., 376 Stokes, George Gabriel, 126 Stoner, E.C., 383 Stoney, George Johnstone, 380 Strachey, Cristopher, 153 Strominger, Jack L., 275 Stuart, John, 280 Suess, Eduard, 444 Suzuki, Mitsuo, 132 Svedberg, Theodor, 375 Swiercz, S., 104 Synge, Richard, 375 Szentàgothai, J., 216 Tait, Peter Guthrie, 127-128 Takens, Floris, 135 Talmage, David, 261-262, 266 Taniyama, Yutaka, 138, 141 Tarski, Alfred, 18, 82 Taube, Mortimer, 167 Taubes, Clifford, 127 Taylor, Jean, 139 Taylor, R., 139 Taylor, Wilfrid, 163 Tazzioli, Rossana, 500 Tecce, Giorgio, 502 Teller, Edward, 305, 392 Tenhard, Louis Jacques, 396 Teorell, T., 420 Thiel, L.H., 104 Thiele, Johannes, 398-399 Thom, René, 120, 122-125, 141-143 Thompson, John, 130, 132 Thompson III, 464 Thomson, Joseph John, 380-382 Thurston, William, 141, 144 Tichy, Pavel, 17, 20-21 Tien, 420 Tiselius, Arne Wilhelm, 263, 375
Tits, Jacques, 132 Tomonaga, Sin-Itiro, 302 Tonegawa, Susumo, 267 Toulmin, S., 25, 29 Toupin, 495 Tropsch, H., 403 Truesdell, Clifford, 472, 494-496 Tucci, Pasquale, 502 Turing, Alan M., 8o-82, 96-98, 146, 148, 150-151, 153-154, 159160, 166, 170, 184, 189, 200 Turlay, R., 306 Tyzzer, Ernest E., 272 Uhlenbeck, George Eugene, 383 Urey, Harold Clayton, 249, 382 Uttley, Albert, 163 Vai!, 464 Valentine, J., 245-246 Van Bemmelen, Reinout Willem, 444. 448-449 Van der Waals, Johannes Diderik, 258, 396 Van der Waerden, Bartel, II7-rr8 Van Fraassen, Bas, 52-56, 59-67, 77 Van't Hoff, Jacobus, 367, 378, 393-394. 407 Varela, Francisco, 280 Vassiliev, V.A., 130 Vegetti, Mario, 500 Verhulst, Pierre-François, 134-135 Vine, F.J., 452 Volta, Alessandro, 361, 364 Vorliinder, Daniel, 399 Vrba, Elisabeth S., 233-234 Waage, Peter, 393 Waddington, Conrad, 235-236, 238, 252 Wald, George, 441 Walden, Pau!, 367 Walter, Grey Walter, 153, 195 Waltz, David, 181 Wang, Hao, 88 Watkins, J.W.N., 23 Watson, James Dewey, 378, 415 Weaver, Warren, 166 Webster, Gerry, 239 Wegener, Alfred Lothar, 443-446, 449 Weierstrass, 494 Weil, André, rr6, rr8-rr9, 138, 140-141 Weinberg, Steven, 309 Weismann, August, 237 Weizenbaum, Joseph, 170 Welsch, H.L., 376 Weltzien, 362 Werner, Alfred, 406-409 Wescott, 420 Westfall, Richard, 477, 494, 496 Weyhrauch, Richard, 185
www.scribd.com/Baruhk
Wheeler, J.A., 345 Whitehead, Alfred, 158 Whitehead, John H.C., 122 Whiteside, D.T., 494 Whitney, Hassler, 120, 122-124, 143 Whittington, Harry, 245 Wholer, Friedrich, 365, 369 Widrow, Bernard, 163 Wieland, Heinrich Otto, 403 Wien, Wilhelm, 380 Wiener, Norbert, 147, 151-152, 157, 159 Wiesel, Torsten N., 208, 216 Wilczek, F., 312 Wiles, Andrew, 137-139, 141 Wilhelmy, Ferdinand, 393 Wilkes, Maurice, 149-152 Williams, George, 232 Williams, Pearce, 498 Willstiitter, Richard, 403 Wilson, John, 96 Wilson, John Tuzo, 454 Wilson Jr., Bright, 392 Wilson, Robert, 320 Wilson, Stewart, 195 Winograd, Terry, 179-180, 183, 186 Winston, Patrick, 181 Wise, R., 204 Wislicenus, Johannes, 366-367 Witten, Edward, 127 Wittgenstein, Ludwig, 25, 485-486, 489-490 Wittig, George, 403 Woese, Cari, 423-424 Wood, D.L., 376 Woodward, Robert Burns, 401, 403 Wos, Larry, 95 Wright, Georg Henryk von, m Wright, Thomas, 347 Wu, C.S., 305-306 Wurtz, Charles, 362, 365, 367 Yang, Chen Ning, 127, 305-306, 317 Yau, Shing-Tung, 126 Young, John Z., 214 Young, Thomas, 439 Yukawa, Hideki, 297-300, 302, 309, 312 Zadeh, Lofti, 177 Zariski, Oscar, n 8 Zeeman, Christopher, 69, 124, 141 Zeldovich, Y., 328 Zermelo, Emst, II7 Ziegler, Karl, 404 Zinin, N.N., 369 Zinkernagel, Rolf, 274 Zuse, Konrad, 147-149 Zweig, G., 310
INDICE
GENERALE
Presentazione DI
ENRICO
BELLONE E
CAPITOLO
CORRADO
MANGIONE
PRIMO
Filosofia della scienza: la chiusura di un ciclo? DI GIOVANNI BONIOLO
3
5
II
~~ III
Introduzione. Le critiche «interne» alla concezione popperiana. I rapporti fra scienza e non scienza.
56 v 73 VI
Lo sviluppo del concetto di spiegazione scientifica. La vexata quaestio del realismo scientifico. Conclusioni.
CAPITOLO SECONDO
Logica e calcolatore DI GABRIELE LOLLI 79 I
So
II
s~ III
85 IV 88 v
Premessa. L'eredità leihniziana. Gli esordi della dimostrazione automatica.
n USP.
93 96 101 105 IlO
VI VII VIII IX
x
Da Skolem al calcolo della risoluzione.
I dimostratori automatici. La correttezza dei programmi. La dimostrazione assistita dal calcolatore. La programmazione logica e il PROLOG. La logica e la rappresentazione della conoscenza.
CAPITOLO TERZO
Teoremi e congetture DI UMBERTO BOTTAZZINI
Il5
n6 n8 ~~~
II
III IV
!26 v 1~7
VI
Introduzione. L'architettura delle matematiche. La matematica bourbakista. Stabilità, singolarità e catastrofi. Sfere esotiche. Nodi.
130 133 136 137 140
VII VIII IX
x Xl
Gruppi finiti semplici. Oggetti frattali e caos. n teorema dei quattro colori. «Uno splendido anacronismo»? Matematica «teorica» e matematica << sperimentale>>.
www.scribd.com/Baruhk
Indice generale CAPITOLO QUARTO
L1ntt/ligenza Artificiale DI ROBERTO CORDESCHI
145 146 n 149 m 152 IV 154 159 161 165 170 172 174
v VI VII VIn IX x Xl
Introduzione. Verso il calcolatore «intelligente». «Pensiero meccanico». La simulazione del cervello sul calcolatore: struttura o funzione? Strategie soddisfacenti. Le euristiche prima e dopo Dartmouth. Simboli o neuroni? Approcci semantici. Generalità e conoscenza. Percorsi della logica. Problemi di buon senso.
177 XII ISO XIII 183 XIV !86 xv !88 XVI 192 XVII 197 XVIII
Contro la logica. La visione artificiale. Vecchi e nuovi progetti. Architetture a confronto: scienza cognitiva e neoconnessionismo. L'Intelligenza Artificiale e gli enigmi della mente. Orientamenti della ricerca dalla fine degli anni ottanta. Conclusione. Quanti paradigmi per una scienza?
CAPITOLO QUINTO
Neuroscienze e filosofia della mente DI ALBERTO OLIVERIO 201 l 202 Il 205m 207 IV
Premessa. Le ricerche sulla fisiologia neuronale. La neurobiologia della memoria. Il problema della localizzazione e plasticità delle funzioni nervose.
210
v
213 VI 217 VII
La memoria come luogo simbolico della mente. Neuroscienze e teorie della mente. Modelli del cervello e rappresentazioni del mondo.
CAPITOLO SESTO
Evoluzione. Sviluppi del darwinismo e prospettive postdarwiniane DI MAURO CERUTI 222 l
227 Il 231 111
Continuità e discontinuità nell'evoluzione. Dalla sintesi neodarwiniana all'ipotesi degli equilibri punteggiati. Adattamento e opportunismo nell'evoluzione. Pluralismo evolutivo. La teoria gerarchica dell'evoluzione.
235 IV 239 v 244 VI 247 VII
Verso un'immagine sistemica del genoma. I tempi lunghi della biosfera. Estinzioni dei dinosauri ed estinzioni di massa. L'evoluzione della diversità. Radici e origini della vita.
CAPITOLO SETTIMO
Il sistema immunitario DI GILBERTO CORBELLINI
254 I 255 Il
Introduzione. L'evoluzione del concetto di immunità adattativa. Il problema dell'anticorpo e la nascita dell'immunologia molecolare. Le cellule dell'immunità e le basi moleco-
lari della differenziazione e dell'integrazione funzionale delle risposte immunitarie. Il problema della regolazione delle risposte immunitarie. Conclusione.
www.scribd.com/Baruhk
Indice generale CAPITOLO
OTTAVO
La fisica delle interazioni fondammtali, della materia e del cosmo DI CARLO BECCHI E BIANCA OSCULATI 2.86 2.88 II 2.92. III 2.96 IV
302. v 316 VI
Introduzione. Il problema dei fondamenti. Gli sviluppi della fisica quantistica. La scoperta delle particelle elementari.
319 VII
CAPITOLO
La teoria delle interazioni fondamentali. Gli sviluppi della fisica della materia condensata. La cosmologia fisica.
NONO
I progressi dell'astrofisica DI 332. l 333 n 337 IIJ 338 IV
FRANCESCO BERTOLA
Premessa. Le nuove tecniche astronomiche. La ricerca astronomica contemporanea. L'esplorazione del sistema solare.
340 v 347 VI 356 VII
CAPITOLO
L'astrofisica delle stelle. L'astrofisica delle galassie. Cosmologia.
DECIMO
Gli sviluppi della chimica nel xx secolo DI SALVATORE CALIFANO
359 360 II
Introduzione. L'eredità del XIX secolo.
373 IIJ
CAPITOLO
La chimica nel xx secolo.
UNDICESIMO
Scienze della vita: alle frontiere fra fisica e chimica DI ALESSANDRA GLIOZZI 4ll l 413 II 417 IIJ 42.1 IV 42.5
v
La rivoluzione della scienze della vita. Proteine, acidi nucleici e lipidi. Nuovi metodi di indagine biofisica e biochimica. La scoperta della vita in condizioni estreme. Origine di un nuovo concetto evolutivo. La membrana biologica: il concetto di plasticità.
CAPITOLO
42.8 VI 431 VII 435 VIII 438 IX
La membrana cellulare: relazione struttura-funzione. Basi molecolari dell'eccitabilità nelle ce!lule nervose. Propagazione e trasmissione del segnale nervoso. Processi di fototrasduzione.
DODICESIMO
Le scienze della Terra DI FELICE IPPOLITO
443 443 Il 449 IIJ 453 IV
Premessa. Teorie fissiste e mobiliste: la deriva dei continenti. L'espansione dei fondi oceanici. La tettonica globale: la tettonica delle placche.
Progressi nella geofisica: la stratigrafia sequenziale. Tettonica delle placche e province metallogenetiche.
www.scribd.com/Baruhk
Indice generale CAPITOLO TREDICESIMO
La storia della scienza DI
469 471 474 475 477 480
I n
m IV
v VI
ENRICO BELLONE
Premessa. Per una storia delle scienze. L'approccio sociologico. La regola di Sarton. Storia della scienza e storia degli scienziati. Credere e conoscere: microcontesti.
485 490 493 497
VII VIII IX
x
500 Xl
Credere e conoscere: macrocontesti. Crescita e rivoluzione. Evoluzione e algoritmi. I rami empirici dell'albero della conoscenza. Conclusione.
Bibliografia 555
INDICE DEI NOMI
www.scribd.com/Baruhk
Fonti iconografiche Illustrazioni in nero pag. 175: da "The Thinking Computer" di Bertram Raphael pag. 416: da "World Journal o/Microbiology and Biotechnology", vol. 11, 1995 pag. 417: da "Molecular Ce!! Biology", diJ. Darnell, H. Lodish e D. Baltimore, 1986, Scientific American Books pag. 421: da "Archaebacteria" di Cari R. Woese, Scienti/icAmerican, giugno 1981 (Alan D. Iselin) l Le Scienze n. 156, agosto 1981 pag. 432: da "Molecular Celi Biology", diJ. Darnell, H. Lodish e D. Baltimore, 1986, Scientific American Books pag. 445: da Le Scienze- Quaderni n. 32, ottobre 1986 pag. 447: da Le Scienze- Quaderni n. 32, ottobre 1986 pag. 448: da Le Scienze- Quaderni n. 13, febbraio 1984 pag. 452: da Le Scienze- Quaderni n. 32, ottobre 1986 pag. 455: da Scienti/ic American, novembre 1975 © George V. Kelvin l Le Scienze- Quaderni n. 13, febbraio 1984 pag. 457: da Scienti/ic American, novembre 1975 © George V. Kelvin l Le Scienze- Quaderni n. 13, febbraio 1984 pag. 458: da Le Scienze - Quaderni n. 13, febbraio 1984 pag. 459: da Le Scienze n. 270, febbraio 1991 pag. 460: da Le Scienze n. 270, febbraio 1991 La foto di Ludovico Geymonat è di Nadia Scanziani
Tavole a colori cap. XI fig. 1: da "Structure and action o/ proteins" di R. E. Dickerson e I. Geis, 1969 © lrving Geis fig. 12: da "The Patch Clamp Technique" di Erwin Neher e Bert Sakmann, Scienti/ic American, marzo 1992 (Dana Burns Pizer) fig. 14: da "Fisiologia animale, meccanismi e adattamenti", di R. Eckert e D. Randall, Zanichelli Editore, 1985 fig. 15: da "Molecular Celi Biology" di l. Dameli, H. Lodish e D. Baltimore, 1986, Scientific American Books cap. XII fig. 1: da Le Scienze n. 270, febbraio 1991 fig. 6: cartina LS lnternational Cartography
Disegni G. G. Mongiello La Casa Editrice si dichiara disponibile a regolare eventuali spettanze per le immagini di cui non sia stato possibile reperire la fonte.
Finito di stampare il21 giugno 1996 dalle Industrie per le Arti Grafiche Garzanti-Verga s.r.l. Cernusco siN (MI)
www.scribd.com/Baruhk
www.scribd.com/Baruhk